OpenAI hat am 12. Februar 2026 ein neues Spezialmodell vorgestellt, das die Spielregeln der KI-Entwicklung verändert: GPT-5.3-Codex-Spark läuft auf Cerebras' Wafer Scale Engine 3 und liefert über 1.000 Tokens pro Sekunde — 15-mal schneller als sein Vorgänger GPT-5.3-Codex. Gleichzeitig werden ältere Modelle wie GPT-4o abgeschaltet. OpenAI setzt voll auf Spezialisierung statt Alleskönner.

Spezialist statt Allrounder

Codex Spark ist kein Allzweck-Chatbot. Es ist ein ultraschnelles Coding-Modell, optimiert für Echtzeit-Feedback-Schleifen: gezielte Code-Edits, Logik-Korrekturen, Inline-Vorschläge — alles in Sekundenbruchteilen. Während der größere GPT-5.3-Codex für lange, autonome Aufgaben konzipiert ist (ähnlich einem Projektarbeiter), ist Spark der Pair-Programming-Partner, der sofort reagiert.

  • Geschwindigkeit: Über 1.000 Tokens/Sekunde — 20x schneller als die Frontier-Konkurrenz bei der Token-Generierung
  • Kontextfenster: 128.000 Tokens
  • Verfügbarkeit: Research Preview für ChatGPT Pro-Abonnenten
  • Format: Text-only, optimiert für Code

Die Cerebras-Partnerschaft

Die extreme Geschwindigkeit verdankt Codex Spark einer Partnerschaft mit Cerebras, deren Wafer Scale Engine 3 — ein kompletter Wafer als einzelner Chip — die Inferenz dramatisch beschleunigt. Die im Januar 2026 angekündigte Kooperation zeigt Wirkung: OpenAI setzt erstmals auf externe Spezialhardware statt ausschließlich auf Nvidia-GPUs.

OpenAIs neue Strategie: Spezialisierte Modell-Teams

Mit Codex Spark wird OpenAIs Strategiewechsel deutlich: Statt eines einzigen Modells, das alles kann, entsteht eine Familie von Spezialisten. GPT-5.2 für Reasoning und Forschung, GPT-5.3-Codex für autonome Langzeitaufgaben, Codex Spark für Echtzeit-Interaktion. Intern läuft GPT-5.3 unter dem Codenamen „Garlic" und markiert den Fokus auf „smarter and denser" — mehr Leistung bei geringerer Modellgröße.

Parallel dazu schaltet OpenAI ältere Modelle ab. Die Botschaft: Die Ära der „One-Size-fits-all"-KI ist vorbei.

📊 Einordnung

Codex Spark ist ein strategischer Zug auf mehreren Ebenen: OpenAI diversifiziert seine Hardware-Abhängigkeit (weg von reiner Nvidia-Bindung), segmentiert sein Modellangebot nach Anwendungsfall und zwingt Entwickler, sich mit der Frage auseinanderzusetzen: Welches Modell für welche Aufgabe? Für Unternehmen bedeutet das eine höhere Einstiegskomplexität, aber auch deutlich bessere Ergebnisse bei richtiger Zuordnung.

🎯 Was bedeutet das konkret?

  • Für Entwickler: Codex Spark für interaktives Coding testen — die Geschwindigkeit verändert den Workflow fundamental.
  • Für IT-Entscheider: Die Multi-Modell-Strategie erfordert ein neues Verständnis: Nicht „welche KI", sondern „welche KI wofür".
  • Für die Branche: Die Cerebras-Partnerschaft signalisiert das Ende der Nvidia-Monokultur bei KI-Inferenz.
📰 Quellen
The New Stack ↗
Teilen: