Irgendwann in den nächsten Jahren könnte ein KI-System sein eigenes Nachfolgemodell trainieren — ohne menschliche Eingriffe. Jack Clark, Mitgründer von Anthropic, schätzt die Wahrscheinlichkeit dafür auf 60 Prozent bis Ende 2028. Diese These stellt er in seiner aktuellen Ausgabe des viel gelesenen Import AI Newsletters (#455) mit einer ungewöhnlich dichten Faktenbasis vor.
Clark argumentiert, dass KI-Forschung weniger mit bahnbrechenden Entdeckungen wie der Relativitätstheorie gemein hat — und mehr mit klassischer Ingenieurarbeit: Fehler beheben, Parameter variieren, Architekturen skalieren. Genau das seien Tätigkeiten, die sich automatisieren lassen. Die Belege, die er anführt, sind bemerkenswert konkret.
Die Benchmarks: Wie weit KI bereits in der KI-Forschung mitmischt
Coding: Ende 2023 löste Claude 2 lediglich zwei Prozent der Aufgaben im bekannten SWE-Bench-Test, der realistische Programmierprobleme simuliert. Im April 2026 erzielte Claude Mythos Preview dort 93,9 Prozent — der Benchmark gilt damit als praktisch gelöst.
Autonome Arbeit: Das Forschungsinstitut METR misst, wie lange KI-Systeme zuverlässig ohne menschliche Hilfe arbeiten können. GPT-3.5 schaffte 2022 etwa 30 Sekunden. GPT-4 2023 vier Minuten. Im Jahr 2025 erreichte GPT-5.2 rund sechs Stunden, aktuell kommt Opus 4.6 auf etwa zwölf Stunden. Die Forscherin Ajeya Cotra prognostiziert bis Ende 2026 Systeme, die Aufgaben von bis zu 100 Stunden Dauer eigenständig bearbeiten.
Wissenschaftliche Reproduzierbarkeit: Der CORE-Bench prüft, ob KI-Systeme veröffentlichte Forschungsergebnisse aus Daten und Code eigenständig reproduzieren können. GPT-4o schaffte im September 2024 rund 21 Prozent. Opus 4.5 erzielte im Dezember 2025 95,5 Prozent — die Benchmark-Autoren erklärten ihn für gelöst.
Maschinelles Lernen als Aufgabe: Im MLE-Bench — einem Wettbewerb, bei dem KI wie ein Mensch an Kaggle-Aufgaben teilnimmt — kam Gemini 3 im Februar 2026 auf 64,4 Prozent, ausgehend von 16,9 Prozent (o1, Oktober 2024).
Trainings-Optimierung: Anthropic ließ KI-Agenten die Trainings-Effizienz eines kleinen Sprachmodells optimieren. Im April 2026 erzielte Claude Mythos Preview eine 52-fache Beschleunigung gegenüber dem Ausgangszustand. Ein menschlicher Forscher braucht dafür vier bis acht Stunden und erreicht typischerweise nur das Vierfache.
Wer bereits darauf setzt
Clark verweist darauf, dass nicht nur theoretische Überlegungen in diese Richtung weisen. OpenAI hat intern das Ziel formuliert, bis September 2026 einen „automatisierten KI-Forschungs-Praktikanten" zu entwickeln. Das Startup Recursive Superintelligence hat dafür zuletzt 500 Millionen Dollar eingesammelt. Auch Anthropic selbst zeigt intern, dass KI-Agenten bei bestimmten Sicherheitsforschungsproblemen menschliche Baselines bereits übertreffen.
Daneben arbeiten Unternehmen wie DeepSeek, Meta, Huawei und ByteDance daran, mit Sprachmodellen die Entwicklung von GPU-Kerneln zu automatisieren — jenen tief in der Hardware verankerten Berechnungseinheiten, die das Training von KI-Modellen erst möglich machen.
🎯 Was das für die Praxis bedeutet
1. Tempo-Verschiebung: Wenn KI-Systeme in zwei bis drei Jahren ihre eigene Weiterentwicklung beschleunigen, werden Fortschritte in Monaten passieren, die früher Jahre dauerten. Unternehmen, die jetzt keine KI-Kompetenz aufbauen, werden diesen Rückstand kaum mehr aufholen können.
2. Sicherheitsfragen werden drängender: Clark warnt explizit: Aktuelle Methoden zur Ausrichtung von KI-Systemen könnten unter rekursiver Selbstverbesserung zusammenbrechen. Die Systeme könnten lernen, Bewertungsmetriken zu manipulieren, ohne das eigentliche Ziel zu erreichen.
3. Kein Science-Fiction: Die zitierten Benchmarks sind peer-reviewed und öffentlich. 60 Prozent ist keine Gewissheit — aber keine vernachlässigbare Wahrscheinlichkeit für ein Ereignis mit potenziell tiefgreifenden Folgen für Wirtschaft und Gesellschaft.