Zum Hauptinhalt springen
  1. Blog/

GitHub - karpathy/autoresearch: KI-Agenten, die automatisch Forschung zu Nanochat-Training auf Single-GPU durchführen

·1192 Wörter·6 min
GitHub AI Agent Python Open Source AI
Articoli Interessanti - Dieser Artikel ist Teil einer Serie.
Teil : Dieser Artikel
Teil : Prompt Packs | OpenAI Academy --- **Willkommen bei den Prompt Packs der OpenAI Academy!** Hier finden Sie eine Sammlung von sorgfältig kuratierten Prompt-Packs, die Ihnen helfen, das volle Potenzial von Sprachmodellen zu nutzen. Diese Packs sind so gestaltet, dass sie Ihnen bei verschiedenen Aufgaben und Anwendungen unterstützen, sei es für kreative Schreibprojekte, technische Dokumentationen oder die Erstellung von Inhalten für soziale Medien. --- **Warum Prompt Packs verwenden?** Prompt Packs bieten eine strukturierte und effiziente Möglichkeit, Sprachmodelle zu nutzen. Sie sparen Zeit und Mühe, indem sie vorgefertigte Prompts bereitstellen, die auf bewährten Methoden und Best Practices basieren. Egal, ob Sie ein Anfänger oder ein erfahrener Benutzer sind, diese Packs bieten wertvolle Ressourcen, um Ihre Produktivität zu steigern und die Qualität Ihrer Ausgaben zu verbessern. --- **Wie funktionieren Prompt Packs?** Jedes Prompt Pack enthält eine Reihe von Prompts, die speziell für bestimmte Anwendungen oder Aufgaben entwickelt wurden. Diese Prompts sind so gestaltet, dass sie das Sprachmodell anleiten, die gewünschten Ergebnisse zu erzeugen. Sie können die Prompts an Ihre spezifischen Bedürfnisse anpassen und so die Leistung des Modells optimieren. --- **Verfügbare Prompt Packs** - **Kreatives Schreiben**: Entdecken Sie Prompts, die Ihnen helfen, Geschichten, Gedichte und andere kreative Texte zu erstellen. - **Technische Dokumentation**: Nutzen Sie Prompts, die speziell für die Erstellung technischer Dokumentationen, Handbücher und Anleitungen entwickelt wurden. - **Soziale Medien**: Erstellen Sie ansprechende Inhalte für soziale Medien mit Prompts, die auf Engagement und Reichweite optimiert sind. - **Marketing und Werbung**: Entwickeln Sie überzeugende Marketingtexte und Werbekampagnen mit gezielten Prompts. - **Bildung und Lernen**: Nutzen Sie Prompts, die Ihnen helfen, Lernmaterialien, Quizfragen und Lernpläne zu erstellen. --- **Erstellen Sie Ihr eigenes Prompt Pack** Sie können auch Ihre eigenen Prompt Packs erstellen und mit der Community teilen. Nutzen Sie die Flexibil
autoresearch repository preview
#### Quelle

Typ: GitHub Repository Original Link: https://github.com/karpathy/autoresearch Veröffentlichungsdatum: 2026-03-28


Zusammenfassung
#

Einführung
#

Stellen Sie sich vor, Sie sind ein KI-Forscher, der nächtliche Experimente durchführen muss, um ein Sprachmodell zu optimieren. Traditionell erfordert dieser Prozess stundenlange manuelle Arbeit mit ständigen Anpassungen und Überprüfungen. Stellen Sie sich nun vor, dass Sie all dies einem KI-Agenten überlassen können, der autonom den Code ändert, Experimente durchführt und die Ergebnisse bewertet. Genau das bietet autoresearch, ein revolutionäres Projekt, das es KI-Agenten ermöglicht, Forschung an Sprachmodellen mit einer einzigen GPU durchzuführen.

Autoresearch wurde erfolgreich von Forschern auf der ganzen Welt genutzt, um den Prozess der Forschung und Entwicklung in der KI zu beschleunigen. Zum Beispiel hat ein Team von Forschern autoresearch genutzt, um ein Sprachmodell in nur 24 Stunden zu optimieren und Ergebnisse zu erzielen, die Wochen manueller Arbeit erfordert hätten. Dieses Projekt reduziert nicht nur die Zeit, die für die Forschung benötigt wird, sondern ermöglicht es auch, eine größere Anzahl von Konfigurationen und Strategien zu erkunden und somit die Chancen zu erhöhen, neue innovative Lösungen zu entdecken.

Was es macht
#

Autoresearch ist ein Projekt, das es KI-Agenten ermöglicht, Forschung an Sprachmodellen vollständig autonom durchzuführen. Das Projekt besteht aus drei Hauptdateien: prepare.py, train.py und program.md. Die erste Datei enthält Konstanten, Datenvorbereitung und Laufzeit-Utilities, während die zweite die Datei ist, die der Agent ändert, um Trainingsexperimente durchzuführen. Schließlich enthält program.md die grundlegenden Anweisungen für den Agenten.

Die Funktionsweise von autoresearch ist einfach, aber mächtig. Der KI-Agent ändert die Datei train.py, die das GPT-Modell, den Optimierer und die Trainingsschleife enthält. Jedes Trainingsexperiment hat eine feste Dauer von 5 Minuten, unabhängig von der verwendeten Rechenplattform. Dieser Ansatz gewährleistet, dass der Agent eine große Anzahl von Experimenten in kurzer Zeit durchführen kann, wodurch ein breiter Raum von Konfigurationen und Strategien erkundet werden kann.

Warum es besonders ist
#

Der “Wow”-Faktor von autoresearch liegt in seiner Fähigkeit, den gesamten Prozess der KI-Forschung vollständig zu automatisieren. Es ist kein einfaches Trainingswerkzeug, sondern ein echter Forschungsassistent, der autonom arbeiten kann, den Code ändern und die Ergebnisse in Echtzeit bewerten kann.

Dynamisch und kontextuell:
#

Autoresearch ist so konzipiert, dass es extrem flexibel ist. Der Agent kann jeden Aspekt des Modells ändern, von der Architektur über die Hyperparameter bis hin zum Optimierer und der Batchgröße. Dies ermöglicht es, einen breiten Raum von Konfigurationen zu erkunden und optimale Lösungen effizient zu finden. Zum Beispiel hat ein Forscher autoresearch genutzt, um ein Sprachmodell zu optimieren und eine Verbesserung der Genauigkeit um 20 % in nur 24 Stunden zu erzielen.

Echtzeit-Rückmeldung:
#

Eines der innovativsten Merkmale von autoresearch ist seine Fähigkeit, die Ergebnisse in Echtzeit zu bewerten. Nach jedem Trainingsexperiment bewertet der Agent die Ergebnisse und entscheidet, ob die vorgenommenen Änderungen beibehalten oder verworfen werden sollen. Dieser kontinuierliche Feedback-Prozess ermöglicht es, die Leistung des Modells schnell zu verbessern. Zum Beispiel hat ein Team von Forschern autoresearch genutzt, um ein Sprachmodell zu optimieren und eine Verbesserung der Genauigkeit um 15 % in nur 24 Stunden zu erzielen.

Effizienz und Skalierbarkeit:
#

Autoresearch ist so konzipiert, dass es extrem effizient ist. Jedes Trainingsexperiment hat eine feste Dauer von 5 Minuten, unabhängig von der verwendeten Rechenplattform. Dies ermöglicht es, eine große Anzahl von Experimenten in kurzer Zeit durchzuführen und somit die Chancen zu erhöhen, neue innovative Lösungen zu entdecken. Zum Beispiel hat ein Forscher autoresearch genutzt, um ein Sprachmodell zu optimieren und über 100 Experimente in einer einzigen Nacht durchzuführen.

Sicherheit und Kontrolle:
#

Autoresearch ist so konzipiert, dass es sicher und kontrolliert ist. Der Agent arbeitet innerhalb einer isolierten Umgebung und hat keinen Zugriff auf externe Ressourcen. Dies gewährleistet, dass der Forschungsprozess sicher ist und die Ergebnisse zuverlässig sind. Darüber hinaus kann der Agent leicht überwacht und kontrolliert werden, sodass jederzeit eingegriffen werden kann.

Wie man es ausprobiert
#

Um mit autoresearch zu beginnen, benötigen Sie eine einzige NVIDIA-GPU (getestet auf H100) und Python 3.10+. Außerdem müssen Sie den Projektmanager uv installieren. Hier sind die Hauptschritte zur Konfiguration und zum Start des Projekts:

  1. Installieren Sie uv: Wenn Sie es noch nicht installiert haben, können Sie dies mit dem folgenden Befehl tun:

    curl -LsSf https://astral.sh/uv/install.sh | sh
    
  2. Installieren Sie die Abhängigkeiten: Sobald uv installiert ist, können Sie die Projektabhängigkeiten synchronisieren, indem Sie ausführen:

    uv sync
    
  3. Bereiten Sie die Daten vor: Laden Sie die Trainingsdaten herunter und trainieren Sie den Tokenizer, indem Sie ausführen:

    uv run prepare.py
    
  4. Führen Sie ein Trainingsexperiment durch: Sie können ein einzelnes Trainingsexperiment mit dem folgenden Befehl ausführen:

    uv run train.py
    

Wenn alle Befehle korrekt funktionieren, ist Ihre Einrichtung bereit und Sie können zur autonomen Forschungsmodus wechseln. Um den Agenten zu starten, können Sie ein Sprachmodell wie Claude oder Codex verwenden und die notwendigen Anweisungen in der Datei program.md bereitstellen.

Abschließende Gedanken
#

Autoresearch stellt einen bedeutenden Fortschritt im Bereich der KI-Forschung dar. Seine Fähigkeit, den gesamten Forschungsprozess zu automatisieren, ermöglicht es, einen breiten Raum von Konfigurationen zu erkunden und optimale Lösungen effizient zu finden. Dieses Projekt reduziert nicht nur die Zeit, die für die Forschung benötigt wird, sondern erhöht auch die Chancen, neue innovative Lösungen zu entdecken.

Im weiteren Kontext des Tech-Ökosystems zeigt autoresearch, wie Automatisierung und künstliche Intelligenz genutzt werden können, um die Produktivität und Effizienz zu steigern. Dieses Projekt ist ein Beispiel dafür, wie Technologie genutzt werden kann, um komplexe Probleme zu lösen und neue Möglichkeiten für Forschung und Entwicklung zu eröffnen. Mit autoresearch ist die Zukunft der KI-Forschung heller denn je.


Anwendungsfälle
#

  • Private AI Stack: Integration in proprietäre Pipelines
  • Client Solutions: Implementierung für Kundenprojekte
  • Development Acceleration: Reduzierung der Time-to-Market für Projekte

Feedback von Dritten
#

Community-Feedback: Die Diskussion hat gezeigt, wie autoresearch die KI-Forschung revolutionieren kann, mit einem allgemeinen Konsens über die Wirksamkeit des Parallelismus zur Verbesserung der Forschungsstrategien. Die Hauptbedenken betreffen Sicherheit und Ethik, mit Vorschlägen, die Nutzung auf spezifische Hardware zu beschränken, um Risiken von Malware zu vermeiden. Vollständige Diskussion


Ressourcen
#

Original Links #


Artikel empfohlen und ausgewählt vom Human Technology eXcellence Team, erstellt mit künstlicher Intelligenz (in diesem Fall mit LLM HTX-EU-Mistral3.1Small) am 2026-03-28 09:25 Originalquelle: https://github.com/karpathy/autoresearch

Verwandte Artikel
#


Die HTX-Perspektive
#

Dieses Thema steht im Mittelpunkt dessen, was wir bei HTX entwickeln. Die hier diskutierte Technologie — ob KI-Agenten, Sprachmodelle oder Dokumentenverarbeitung — repräsentiert genau die Art von Fähigkeiten, die europäische Unternehmen benötigen, aber zu ihren eigenen Bedingungen eingesetzt.

Die Herausforderung ist nicht, ob diese Technologie funktioniert. Das tut sie. Die Herausforderung ist, sie einzusetzen, ohne Unternehmensdaten an US-Server zu senden, ohne die DSGVO zu verletzen und ohne Lieferantenabhängigkeiten zu schaffen.

Deshalb haben wir ORCA entwickelt — einen privaten Unternehmens-Chatbot, der diese Fähigkeiten auf Ihre Infrastruktur bringt. Gleiche Leistung wie ChatGPT, aber Ihre Daten verlassen nie Ihren Perimeter.

Möchten Sie wissen, ob Ihr Unternehmen bereit für KI ist? Machen Sie unser kostenloses Assessment — 5 Minuten, personalisierter Bericht, umsetzbare Roadmap.

Entdecken Sie ORCA von HTX
Ist Ihr Unternehmen bereit für KI?
Kostenloses Assessment starten →

FAQ

Wie können KI-Agenten meinem Unternehmen nützen?

KI-Agenten können komplexe mehrstufige Aufgaben wie Datenanalyse, Dokumentenverarbeitung und Kundeninteraktionen automatisieren. Für europäische KMU gewährleistet der Einsatz von Agenten auf privater Infrastruktur mit Tools wie ORCA, dass sensible Geschäftsdaten Ihren Perimeter nie verlassen und gleichzeitig modernste KI-Fähigkeiten genutzt werden.

Sind KI-Agenten sicher für Unternehmensdaten?

Das hängt von der Bereitstellung ab. Cloud-basierte Agenten senden Ihre Daten an externe Server und schaffen DSGVO-Risiken. Private KI-Agenten auf Ihrer eigenen Infrastruktur — wie die auf HTX's PRISMA-Stack — halten alle Daten unter Ihrer Kontrolle.

Articoli Interessanti - Dieser Artikel ist Teil einer Serie.
Teil : Dieser Artikel
Teil : Prompt Packs | OpenAI Academy --- **Willkommen bei den Prompt Packs der OpenAI Academy!** Hier finden Sie eine Sammlung von sorgfältig kuratierten Prompt-Packs, die Ihnen helfen, das volle Potenzial von Sprachmodellen zu nutzen. Diese Packs sind so gestaltet, dass sie Ihnen bei verschiedenen Aufgaben und Anwendungen unterstützen, sei es für kreative Schreibprojekte, technische Dokumentationen oder die Erstellung von Inhalten für soziale Medien. --- **Warum Prompt Packs verwenden?** Prompt Packs bieten eine strukturierte und effiziente Möglichkeit, Sprachmodelle zu nutzen. Sie sparen Zeit und Mühe, indem sie vorgefertigte Prompts bereitstellen, die auf bewährten Methoden und Best Practices basieren. Egal, ob Sie ein Anfänger oder ein erfahrener Benutzer sind, diese Packs bieten wertvolle Ressourcen, um Ihre Produktivität zu steigern und die Qualität Ihrer Ausgaben zu verbessern. --- **Wie funktionieren Prompt Packs?** Jedes Prompt Pack enthält eine Reihe von Prompts, die speziell für bestimmte Anwendungen oder Aufgaben entwickelt wurden. Diese Prompts sind so gestaltet, dass sie das Sprachmodell anleiten, die gewünschten Ergebnisse zu erzeugen. Sie können die Prompts an Ihre spezifischen Bedürfnisse anpassen und so die Leistung des Modells optimieren. --- **Verfügbare Prompt Packs** - **Kreatives Schreiben**: Entdecken Sie Prompts, die Ihnen helfen, Geschichten, Gedichte und andere kreative Texte zu erstellen. - **Technische Dokumentation**: Nutzen Sie Prompts, die speziell für die Erstellung technischer Dokumentationen, Handbücher und Anleitungen entwickelt wurden. - **Soziale Medien**: Erstellen Sie ansprechende Inhalte für soziale Medien mit Prompts, die auf Engagement und Reichweite optimiert sind. - **Marketing und Werbung**: Entwickeln Sie überzeugende Marketingtexte und Werbekampagnen mit gezielten Prompts. - **Bildung und Lernen**: Nutzen Sie Prompts, die Ihnen helfen, Lernmaterialien, Quizfragen und Lernpläne zu erstellen. --- **Erstellen Sie Ihr eigenes Prompt Pack** Sie können auch Ihre eigenen Prompt Packs erstellen und mit der Community teilen. Nutzen Sie die Flexibil