OpenAI hat heute Codex in die ChatGPT-App für iOS und Android gebracht. Die Funktion ist als Preview verfügbar und macht das Smartphone zur Fernsteuerung für KI-gestützte Coding-Workflows – während die eigentliche Arbeit auf dem Rechner weiterläuft.
Codex bleibt auf dem Rechner, das Handy steuert
Das Architekturprinzip ist bewusst asymmetrisch: Die mobile App ist kein eigenständiger Code-Editor. Sie ist eine Überwachungs- und Steuerungsschicht, die sich über einen sicheren Relay mit dem Host-Rechner verbindet – einem Laptop, Mac mini oder einer Remote-Entwicklungsumgebung (Devbox). Dateien, Credentials und Berechtigungen verbleiben vollständig auf der Host-Maschine.
Konkret streamt die App in Echtzeit:
- Terminal-Aktivität: Live-Output der Kommandozeile
- Code-Diffs: Änderungen am Quellcode in Echtzeit
- Screenshots und Testergebnisse: Visueller Kontext für den aktuellen Stand
Steuerung statt Tippen
Die mobile Oberfläche erlaubt drei zentrale Interaktionen:
- Tool-Calls genehmigen oder ablehnen: Der Entwickler behält die Kontrolle über jeden Schritt, den der Agent autonom ausführen will
- Anweisungen und Klarstellungen senden: Kurze Textbefehle, um den Agenten umzulenken oder zu präzisieren
- Neue Aufträge starten: Komplexe Refactorings oder Repository-Migrationen können von unterwegs angestoßen werden
Warum das relevant ist
Codex ist OpenAIs agentenbasiertes Coding-System, das seit seiner Einführung auf autonomes Arbeiten in Sandbox-Umgebungen ausgelegt ist. Der Mobile-Client löst ein praktisches Problem: Langläufige Aufgaben – etwa ein umfangreicher Refactor über mehrere Stunden – erfordern regelmäßig menschliches Feedback (Genehmigungen, Richtungskorrekturen), aber der Entwickler sitzt nicht immer am Schreibtisch.
Mit der mobilen Integration wird Codex zu einem asynchronen Arbeitsmodus: Aufgabe delegieren, vom Rechner weggehen, vom Handy aus überwachen und freigeben. Das entspricht dem Muster, das auch Kimi WebBridge verfolgt – Agenten arbeiten im Hintergrund, Menschen geben nur noch die Richtung vor.
Anthropic zieht nach: Claude Mobile wird umgebaut
OpenAI ist nicht allein mit dem Mobile-Push. Laut dem Leak-Account @testingcatalog testet auch Anthropic derzeit eine neue mobile Erfahrung für Claude. Zu den Änderungen gehören:
- Model-Selector im Prompt-Bereich: Die Modellauswahl wandert direkt in das Eingabefeld – weg aus verschachtelten Menüs
- Bottom-Navigation-Tabs: Eine neue Tab-Leiste am unteren Bildschirmrand wird getestet
- Connectors Discovery: Claude soll auf dem Handy selbständig den passenden Connector für eine Aufgabe vorschlagen
Das Timing ist kein Zufall: Beide Unternehmen positionieren das Smartphone als zentrale Steuerungseinheit für KI-Agenten. OpenAI setzt dabei auf die Fernsteuerung laufender Coding-Sessions, Anthropic auf eine überarbeitete Chat-Oberfläche mit intelligenterem Kontext-Routing.
OpenAI hat den Tweet an die Spitze des eigenen Profils gepinnt. Die Codex-Funktion ist aktuell als Preview für ChatGPT-Nutzer verfügbar.
🎯 Was das für die Praxis bedeutet
1. Mobile-First-Supervision: Entwickler können lang laufende KI-Coding-Tasks vom Smartphone aus überwachen und freigeben. Das reduziert Leerlaufzeiten bei autonomen Workflows erheblich.
2. Sicherheitsarchitektur beachten: Die Relay-Architektur hält Code und Credentials auf dem Host-Rechner. Wer Codex im Team einsetzt, sollte trotzdem prüfen, welche Informationen über die Relay-Verbindung übertragen werden.
3. Agentensteuerung wird mobil: Die Trennung von Ausführung (Rechner) und Steuerung (Handy) wird zum Standard für KI-Agenten. Wer heute mit Codex, Claude Code oder Cursor arbeitet, sollte sich auf dieses Paradigma einstellen.