OpenAI hat heute Codex in die ChatGPT-App für iOS und Android gebracht. Die Funktion ist als Preview verfügbar und macht das Smartphone zur Fernsteuerung für KI-gestützte Coding-Workflows – während die eigentliche Arbeit auf dem Rechner weiterläuft.

Codex bleibt auf dem Rechner, das Handy steuert

Das Architekturprinzip ist bewusst asymmetrisch: Die mobile App ist kein eigenständiger Code-Editor. Sie ist eine Überwachungs- und Steuerungsschicht, die sich über einen sicheren Relay mit dem Host-Rechner verbindet – einem Laptop, Mac mini oder einer Remote-Entwicklungsumgebung (Devbox). Dateien, Credentials und Berechtigungen verbleiben vollständig auf der Host-Maschine.

Konkret streamt die App in Echtzeit:

  • Terminal-Aktivität: Live-Output der Kommandozeile
  • Code-Diffs: Änderungen am Quellcode in Echtzeit
  • Screenshots und Testergebnisse: Visueller Kontext für den aktuellen Stand

Steuerung statt Tippen

Die mobile Oberfläche erlaubt drei zentrale Interaktionen:

  • Tool-Calls genehmigen oder ablehnen: Der Entwickler behält die Kontrolle über jeden Schritt, den der Agent autonom ausführen will
  • Anweisungen und Klarstellungen senden: Kurze Textbefehle, um den Agenten umzulenken oder zu präzisieren
  • Neue Aufträge starten: Komplexe Refactorings oder Repository-Migrationen können von unterwegs angestoßen werden

Warum das relevant ist

Codex ist OpenAIs agentenbasiertes Coding-System, das seit seiner Einführung auf autonomes Arbeiten in Sandbox-Umgebungen ausgelegt ist. Der Mobile-Client löst ein praktisches Problem: Langläufige Aufgaben – etwa ein umfangreicher Refactor über mehrere Stunden – erfordern regelmäßig menschliches Feedback (Genehmigungen, Richtungskorrekturen), aber der Entwickler sitzt nicht immer am Schreibtisch.

Mit der mobilen Integration wird Codex zu einem asynchronen Arbeitsmodus: Aufgabe delegieren, vom Rechner weggehen, vom Handy aus überwachen und freigeben. Das entspricht dem Muster, das auch Kimi WebBridge verfolgt – Agenten arbeiten im Hintergrund, Menschen geben nur noch die Richtung vor.

Anthropic zieht nach: Claude Mobile wird umgebaut

OpenAI ist nicht allein mit dem Mobile-Push. Laut dem Leak-Account @testingcatalog testet auch Anthropic derzeit eine neue mobile Erfahrung für Claude. Zu den Änderungen gehören:

  • Model-Selector im Prompt-Bereich: Die Modellauswahl wandert direkt in das Eingabefeld – weg aus verschachtelten Menüs
  • Bottom-Navigation-Tabs: Eine neue Tab-Leiste am unteren Bildschirmrand wird getestet
  • Connectors Discovery: Claude soll auf dem Handy selbständig den passenden Connector für eine Aufgabe vorschlagen

Das Timing ist kein Zufall: Beide Unternehmen positionieren das Smartphone als zentrale Steuerungseinheit für KI-Agenten. OpenAI setzt dabei auf die Fernsteuerung laufender Coding-Sessions, Anthropic auf eine überarbeitete Chat-Oberfläche mit intelligenterem Kontext-Routing.

OpenAI hat den Tweet an die Spitze des eigenen Profils gepinnt. Die Codex-Funktion ist aktuell als Preview für ChatGPT-Nutzer verfügbar.

🎯 Was das für die Praxis bedeutet

1. Mobile-First-Supervision: Entwickler können lang laufende KI-Coding-Tasks vom Smartphone aus überwachen und freigeben. Das reduziert Leerlaufzeiten bei autonomen Workflows erheblich.

2. Sicherheitsarchitektur beachten: Die Relay-Architektur hält Code und Credentials auf dem Host-Rechner. Wer Codex im Team einsetzt, sollte trotzdem prüfen, welche Informationen über die Relay-Verbindung übertragen werden.

3. Agentensteuerung wird mobil: Die Trennung von Ausführung (Rechner) und Steuerung (Handy) wird zum Standard für KI-Agenten. Wer heute mit Codex, Claude Code oder Cursor arbeitet, sollte sich auf dieses Paradigma einstellen.

📰 Quellen
@OpenAI auf X ↗ OpenAI Codex ↗ @testingcatalog auf X ↗
Teilen: