Wenn einer der prominentesten KI-Forscher der Welt seine Arbeitsweise ändert, horcht die Entwickler-Community auf. Andrej Karpathy, ehemaliger KI-Chef bei Tesla und Gründungsmitglied von OpenAI, hat auf X einen detaillierten Einblick in sein neues System für persönliches Wissensmanagement gegeben – und erklärt damit klassischen RAG-Systemen (Retrieval-Augmented Generation) mehr oder weniger eine Absage.
Der Abschied vom klassischen Context-RAG
Bisher galt bei der Arbeit mit großen Sprachmodellen die Regel: Möglichst viel Hintergrundwissen direkt in riesige Kontextfenster (Context Windows) stopfen oder per Vektordatenbank bei Bedarf abrufen (RAG). Ersteres ist oft teuer, Letzteres erfordert komplexe Pipelines.
Karpathy dreht diesen Prozess um. Er nutzt die beliebte Notiz-App Obsidian als Front-End für einen sogenannten "Vault" (Tresor) aus Markdown-Dateien. Neue Forschungsberichte, Paper oder rohe Notizen legt er einfach in einen unsortierten /raw-Ordner. Ein lokales LLM übernimmt die Rolle eines ständigen Bibliothekars: Es liest die Rohdaten, indexiert sie und "kompiliert" sie automatisch in eine strukturierte, gepflegte Markdown-Wiki.
Ein echtes "Second Brain" ohne manuellen Aufwand
KI-Daten-Experte Charly Wargnier bezeichnet das Setup als "das ultimative, sich selbst verbessernde Second Brain". Für Entwickler löst dieser Aufbau ein Kernproblem: Das LLM organisiert nicht nur seine eigenen Arbeitsgrundlagen proaktiv und pflegt den eigenen "Memory Layer", sondern macht die Zwischenspeicher auch komplett transparent. Die Markdown-Dateien bleiben vom Nutzer jederzeit menschenlesbar und bearbeitbar.
Auch die Ausgaben der KI speisen das System wieder. Anstatt flüchtige Chat-Antworten zu generieren, lässt Karpathy das Modell oft Präsentationsfolien via Marp oder Datenvisualisierungen via matplotlib-Python-Code erzeugen. Diese visuell aufbereiteten Outputs werden dann wieder sauber in das Obsidian-Wiki einsortiert.
KI-Agenten erhalten einen digitalen Garten
Der Ansatz weckt in der KI-Szene enorme Resonanz. KI-Forscher Elvis Saravia bestätigt den Trend: "Eine persönliche Wissensbasis für meine Agenten aufzubauen, ist zunehmend das, womit ich meine Zeit verbringe." Anstatt also der KI bei jeder Anfrage von Grund auf die Welt zu erklären, baut das Modell sich seine eigene, dauerhaft gepflegte Nachschlagewerke auf – ähnlich den "Digital Gardens" im Web-2.0-Zeitalter, nur vollautomatisiert.
🎯 Was das für die Praxis bedeutet
1. Agentisches Gedächtnis statt riesiger Prompts: Der Fokus verschiebt sich von reiner In-Context Einbettung hin zu Systemen, in denen die KI dauerhaft eine strukturierte lokale Datenbank im Klartext pflegt.
2. Markdown als Lingua Franca: Das einfache Textformat etabliert sich endgültig als ideale Brücke zwischen dem, was KI-Modelle gut modifizieren können, und dem, was Menschen ohne Werkzeuge lesen können.
3. Mehr Autonomie, weniger Retrieval-Code: Anstatt komplexe RAG-Pipelines mit Vektordatenbanken und Such-Algorithmen aufzusetzen, delegieren Vorreiter die Organisation der Daten nun komplett an das Modell selbst.