Wenige Tage nachdem Anthropics Mythos-Modell die Cybersicherheitsbranche erschüttert hat, schlägt OpenAI zurück. Mit GPT 5.4-Cyber stellt das Unternehmen eine spezialisierte Modellvariante vor, die gezielt für Cyberverteidigung entwickelt wurde — inklusive einer Fähigkeit, die es bisher bei keinem öffentlich zugänglichen KI-Modell gab: Binary Reverse Engineering.

Was GPT 5.4-Cyber kann

Das Grundproblem klingt paradox: Normale KI-Modelle sind für Sicherheitsforscher oft zu sicher. Wer verdächtigen Code analysieren, Malware untersuchen oder Schwachstellen aufspüren will, stößt regelmäßig auf Sicherheitsfilter, die genau diese Anfragen blockieren — weil sie auch von Angreifern gestellt werden könnten.

GPT 5.4-Cyber löst dieses Dilemma durch einen „cyber-permissiven" Ansatz: Das Modell wurde so angepasst, dass es legitime Sicherheitsforschung unterstützt, ohne bei dualen Cyber-Anfragen reflexartig abzublocken. Konkret bietet es laut OpenAIs Blogpost:

  • Binary Reverse Engineering: Analyse kompilierter Software auf Malware und Sicherheitslücken — ohne Zugang zum Quellcode. Eine Fähigkeit, die bisher spezialisierte Tools wie IDA Pro oder Ghidra erforderte.
  • Schwachstellenanalyse: Tiefgehende Untersuchung von Code auf Sicherheitslücken, ohne dass das Modell die Anfrage als potenziell schädlich einstuft.
  • Bedrohungssuche (Threat Hunting): Proaktive Suche nach Angriffsmustern in Netzwerkdaten und Logfiles.

Zugang nur für Geprüfte: Das TAC-Programm

Das Modell ist nicht frei zugänglich. OpenAI verbreitet es über das Trusted Access for Cyber (TAC)-Programm, das einen mehrstufigen Identitätsprüfungsprozess (KYC) voraussetzt. Zugelassen werden:

  • Geprüfte Sicherheitsanbieter und -unternehmen
  • Akkreditierte Sicherheitsforscher
  • Organisationen, die kritische Infrastruktur schützen

Einzelne Forscher können sich unter chatgpt.com/cyber bewerben. Das Prinzip: Wer Zugang will, muss beweisen, dass er auf der richtigen Seite steht.

OpenAI vs. Anthropic: Zwei Philosophien

Mit GPT 5.4-Cyber betritt OpenAI ein Feld, das Anthropic mit Project Glasswing und dem Mythos-Modell erst vor wenigen Wochen definiert hat. Die britische Prüfbehörde AISI bestätigte, dass Mythos Preview erstmals in der Lage war, vollständige Netzwerke in realistischen Hacker-Simulationen zu übernehmen.

Die Ansätze unterscheiden sich dennoch deutlich:

  • Anthropic (Mythos): Eigenes Modell speziell für Cybersicherheit, 100 Mio. Dollar Budget, Partnerschaften mit Apple, Google, Microsoft und NVIDIA. Fokus auf offensive Fähigkeiten zur Verteidigung (Zero-Day-Erkennung).
  • OpenAI (GPT 5.4-Cyber): Spezialisierte Variante des Flaggschiff-Modells mit reduzierten Sicherheitsfiltern. Fokus auf Demokratisierung des Zugangs für die breite Verteidiger-Community über das TAC-Programm. Bereits über 1.000 Projekte und 3.000+ gepatchte Schwachstellen durch Codex Security.

Die Zahlen hinter der Strategie

OpenAIs Cybersecurity-Engagement hat bereits konkrete Ergebnisse produziert:

  • 10 Mio. Dollar Cybersecurity Grant Program mit über 1.000 geförderten Projekten
  • Codex Security (Anfang 2026 gestartet) hat mehr als 3.000 kritische Schwachstellen behoben
  • Kooperation mit CISA (Cybersecurity and Infrastructure Security Agency) für nationale Verteidigungsstrategien

Die Botschaft ist klar: OpenAI will nicht nur das leistungsfähigste Sprachmodell bauen, sondern es auch zum mächtigsten Verteidigungswerkzeug der digitalen Infrastruktur machen.

🎯 Was das für die Praxis bedeutet

1. Security-Teams: Zugang beantragen. Wer professionell mit Cybersicherheit arbeitet, sollte sich unter chatgpt.com/cyber für das TAC-Programm bewerben. Die reduzierten Filter machen GPT 5.4-Cyber deutlich nützlicher als Standard-Modelle.

2. Strategie-Implikation: Mit Anthropic und OpenAI konkurrieren jetzt zwei Frontier-Labs direkt um die Cybersicherheits-Community. Unternehmen sollten beide Ansätze evaluieren — Mythos für offensive Verteidigung, GPT 5.4-Cyber für breite Analysefähigkeiten.

3. Das Dual-Use-Dilemma bleibt: Ein Modell, das für Verteidiger nützlicher wird, kann theoretisch auch von Angreifern missbraucht werden. OpenAIs KYC-Verfahren ist der Versuch, diesen Balanceakt zu bewältigen — ob es reicht, wird sich zeigen.

📰 Quellen
OpenAI Blog ↗
Teilen: