Wenige Tage nachdem Anthropics Mythos-Modell die Cybersicherheitsbranche erschüttert hat, schlägt OpenAI zurück. Mit GPT 5.4-Cyber stellt das Unternehmen eine spezialisierte Modellvariante vor, die gezielt für Cyberverteidigung entwickelt wurde — inklusive einer Fähigkeit, die es bisher bei keinem öffentlich zugänglichen KI-Modell gab: Binary Reverse Engineering.
Was GPT 5.4-Cyber kann
Das Grundproblem klingt paradox: Normale KI-Modelle sind für Sicherheitsforscher oft zu sicher. Wer verdächtigen Code analysieren, Malware untersuchen oder Schwachstellen aufspüren will, stößt regelmäßig auf Sicherheitsfilter, die genau diese Anfragen blockieren — weil sie auch von Angreifern gestellt werden könnten.
GPT 5.4-Cyber löst dieses Dilemma durch einen „cyber-permissiven" Ansatz: Das Modell wurde so angepasst, dass es legitime Sicherheitsforschung unterstützt, ohne bei dualen Cyber-Anfragen reflexartig abzublocken. Konkret bietet es laut OpenAIs Blogpost:
- Binary Reverse Engineering: Analyse kompilierter Software auf Malware und Sicherheitslücken — ohne Zugang zum Quellcode. Eine Fähigkeit, die bisher spezialisierte Tools wie IDA Pro oder Ghidra erforderte.
- Schwachstellenanalyse: Tiefgehende Untersuchung von Code auf Sicherheitslücken, ohne dass das Modell die Anfrage als potenziell schädlich einstuft.
- Bedrohungssuche (Threat Hunting): Proaktive Suche nach Angriffsmustern in Netzwerkdaten und Logfiles.
Zugang nur für Geprüfte: Das TAC-Programm
Das Modell ist nicht frei zugänglich. OpenAI verbreitet es über das Trusted Access for Cyber (TAC)-Programm, das einen mehrstufigen Identitätsprüfungsprozess (KYC) voraussetzt. Zugelassen werden:
- Geprüfte Sicherheitsanbieter und -unternehmen
- Akkreditierte Sicherheitsforscher
- Organisationen, die kritische Infrastruktur schützen
Einzelne Forscher können sich unter chatgpt.com/cyber bewerben. Das Prinzip: Wer Zugang will, muss beweisen, dass er auf der richtigen Seite steht.
OpenAI vs. Anthropic: Zwei Philosophien
Mit GPT 5.4-Cyber betritt OpenAI ein Feld, das Anthropic mit Project Glasswing und dem Mythos-Modell erst vor wenigen Wochen definiert hat. Die britische Prüfbehörde AISI bestätigte, dass Mythos Preview erstmals in der Lage war, vollständige Netzwerke in realistischen Hacker-Simulationen zu übernehmen.
Die Ansätze unterscheiden sich dennoch deutlich:
- Anthropic (Mythos): Eigenes Modell speziell für Cybersicherheit, 100 Mio. Dollar Budget, Partnerschaften mit Apple, Google, Microsoft und NVIDIA. Fokus auf offensive Fähigkeiten zur Verteidigung (Zero-Day-Erkennung).
- OpenAI (GPT 5.4-Cyber): Spezialisierte Variante des Flaggschiff-Modells mit reduzierten Sicherheitsfiltern. Fokus auf Demokratisierung des Zugangs für die breite Verteidiger-Community über das TAC-Programm. Bereits über 1.000 Projekte und 3.000+ gepatchte Schwachstellen durch Codex Security.
Die Zahlen hinter der Strategie
OpenAIs Cybersecurity-Engagement hat bereits konkrete Ergebnisse produziert:
- 10 Mio. Dollar Cybersecurity Grant Program mit über 1.000 geförderten Projekten
- Codex Security (Anfang 2026 gestartet) hat mehr als 3.000 kritische Schwachstellen behoben
- Kooperation mit CISA (Cybersecurity and Infrastructure Security Agency) für nationale Verteidigungsstrategien
Die Botschaft ist klar: OpenAI will nicht nur das leistungsfähigste Sprachmodell bauen, sondern es auch zum mächtigsten Verteidigungswerkzeug der digitalen Infrastruktur machen.
🎯 Was das für die Praxis bedeutet
1. Security-Teams: Zugang beantragen. Wer professionell mit Cybersicherheit arbeitet, sollte sich unter chatgpt.com/cyber für das TAC-Programm bewerben. Die reduzierten Filter machen GPT 5.4-Cyber deutlich nützlicher als Standard-Modelle.
2. Strategie-Implikation: Mit Anthropic und OpenAI konkurrieren jetzt zwei Frontier-Labs direkt um die Cybersicherheits-Community. Unternehmen sollten beide Ansätze evaluieren — Mythos für offensive Verteidigung, GPT 5.4-Cyber für breite Analysefähigkeiten.
3. Das Dual-Use-Dilemma bleibt: Ein Modell, das für Verteidiger nützlicher wird, kann theoretisch auch von Angreifern missbraucht werden. OpenAIs KYC-Verfahren ist der Versuch, diesen Balanceakt zu bewältigen — ob es reicht, wird sich zeigen.