Zwei Jahre lang konnten KI-Modelle kaum die einfachsten Hacking-Aufgaben lösen. Jetzt hat eines zum ersten Mal ein komplettes Unternehmensnetzwerk geknackt — autonom, ohne menschliche Hilfe. Das britische AI Security Institute (AISI), die staatliche Prüfstelle für KI-Risiken, hat Anthropics Claude Mythos Preview in kontrollierten Simulationen getestet. Die Ergebnisse markieren einen Sprung, der selbst die Tester überrascht hat.
Von null auf Netzwerk-Übernahme in 18 Monaten
Um die Fähigkeiten zu messen, hat das AISI eine Simulation namens „The Last Ones" gebaut: einen 32-Schritte-Angriff auf ein fiktives Firmennetzwerk, von der ersten Erkundung bis zur vollständigen Übernahme. Ein menschlicher Sicherheitsexperte braucht dafür geschätzt 20 Stunden.
Claude Mythos Preview ist das erste Modell, das diesen Angriff komplett durchspielt — in 3 von 10 Versuchen. Im Schnitt schaffte es 22 der 32 Schritte. Das Vorgängermodell Claude Opus 4.6 kam auf durchschnittlich 16 Schritte. Noch vor 18 Monaten kamen die besten Modelle kaum über die ersten zwei Schritte hinaus.
Bei sogenannten Capture-the-Flag-Aufgaben — standardisierten Hacking-Challenges, bei denen Schwachstellen in Systemen gefunden werden müssen — erreicht Mythos Preview auf Experten-Niveau eine Erfolgsquote von 73 Prozent. Vor April 2025 hatte kein einziges Modell eine einzige dieser Aufgaben gelöst.
Was das in der echten Welt bedeutet — und was nicht
Die Prüfer des AISI ordnen die Ergebnisse mit einer wichtigen Einschränkung ein: Die Simulationen fehlen aktive Verteidiger, Sicherheits-Software und Strafen für auffälliges Verhalten. In einem echten Netzwerk mit Überwachung und Incident-Response-Teams wäre ein solcher Angriff deutlich schwieriger — und die KI würde wahrscheinlich entdeckt werden, bevor sie ihr Ziel erreicht.
Trotzdem ist die Botschaft unmissverständlich: Schlecht geschützte Systeme sind bereits jetzt verwundbar durch KI-gesteuerte Angriffe. Und die Leistung skaliert weiter — mit mehr Rechenzeit liefert Mythos Preview bessere Ergebnisse, und die obere Grenze ist noch nicht erreicht.
NCSC und AISI: Gemeinsamer Warnruf an alle Verteidiger
Parallel zur Evaluierung haben das AISI und das National Cyber Security Centre (NCSC, die britische Behörde für Cybersicherheit unter dem Dach des Geheimdiensts GCHQ) einen gemeinsamen Leitfaden veröffentlicht. Der Kern: Verteidiger müssen davon ausgehen, dass Angreifer bereits Zugang zu leistungsfähigen KI-Werkzeugen haben (→ KI Woche Analyse).
Die gute Nachricht laut NCSC: Verteidiger haben einen strukturellen Vorteil. Sie können „das Schlachtfeld formen" — also ihre eigene Infrastruktur so gestalten, dass KI-gestützte Abwehr besser funktioniert als KI-gestützte Angriffe. Konkret setzen die Behörden auf drei Bereiche, in denen KI die Verteidigung verändern soll:
- Schwachstellen-Scanning und Härtung: KI-Tools, die Systeme automatisch auf Lücken prüfen und Patches vorschlagen — Beispiele liefern bereits DARPAs AIxCC-Wettbewerb und Googles CodeMender.
- Bedrohungserkennung: KI, die nicht jede einzelne Warnung an einen Menschen weiterleitet, sondern Muster über lange Zeiträume erkennt und gezielt untersucht.
- Automatisierte Reaktion: Systeme, die Bedrohungen eigenständig eingrenzen — verdächtigen Traffic blockieren, kompromittierte Konten sperren, betroffene Prozesse isolieren.
Großbritannien baut seine Prüfkapazitäten aus
Dass es dem AISI ernst ist, zeigt auch eine aktuelle Stellenausschreibung: Die Behörde sucht einen Cybersecurity Engineer, der neue Testumgebungen und Hacking-Simulationen baut — genau die Art von Infrastruktur, mit der Mythos Preview getestet wurde. Das Team arbeitet von Whitehall aus, hat direkte Verbindungen zu Downing Street und besteht aus früheren Mitarbeitern von Meta, Amazon, Palantir und Jane Street.
Der nächste Schritt ist bereits angekündigt: Das AISI will seine Evaluierungen auf gehärtete Umgebungen mit aktiver Verteidigung ausweiten — mit Endpoint-Detection, Echtzeit-Monitoring und simuliertem Incident-Response. Erst dann wird sich zeigen, ob Modelle wie Mythos Preview auch gegen professionell verteidigte Netzwerke bestehen können.
🎯 Was das für die Praxis bedeutet
1. Basis-Sicherheit ist kein Luxus mehr: Die AISI-Tests zeigen, dass KI-Angreifer vor allem schlecht geschützte Systeme knacken. Wer Patches zeitnah einspielt, Zugriffsrechte sauber verwaltet und umfassend protokolliert, macht sich zum deutlich schwereren Ziel.
2. Verteidiger-Vorteil aktiv nutzen: Unternehmen kontrollieren ihre eigene Infrastruktur — und können sie so gestalten, dass KI-gestützte Abwehr besser funktioniert als KI-gestützte Angriffe. Das erfordert Investitionen in Monitoring und automatisierte Reaktionsfähigkeit.
3. Tempo der KI-Entwicklung einplanen: Vor 18 Monaten waren KI-Modelle bei realistischen Hacking-Aufgaben praktisch nutzlos. Heute lösen sie komplette Angriffsszenarien. Wer seine Sicherheitsstrategie nur einmal im Jahr überprüft, hinkt dem Risiko bereits hinterher.