Hallo zusammen, hier ist Markus. Diese Woche war eine der dichtesten seit Jahresbeginn — und das will etwas heißen. OpenAI hat mit GPT-5.5 offiziell den Übergang vom Chatbot zum Agenten vollzogen. DeepSeek kontert mit einem Open-Source-Flaggschiff auf 1,6 Billionen Parametern — das zum ersten Mal komplett ohne NVIDIA auskommt. Und zwei große Studien zeigen ein beunruhigendes Paradox: Die Menschen, die am meisten von KI profitieren, haben auch am meisten Angst davor.
DIE STORY DER WOCHE
GPT-5.5: OpenAIs neues Flaggschiff denkt, plant und steuert den Computer
OpenAI hat GPT-5.5 offiziell vorgestellt — und das Modell macht dort weiter, wo die Leaks der Vorwoche aufgehört hatten. GPT-5.5 ist kein klassisches Sprachmodell mehr. Es kommt in drei Varianten (Standard, Thinking, Pro), ist nativ omnimodal und erreicht in Terminal-Bench 2.0 bis zu 82,7 Prozent — gegenüber 75,1 Prozent beim Vorgänger GPT-5.4. OpenAI selbst beschreibt es als „neue Klasse von Intelligenz für echte Arbeit".
Die vielleicht wichtigste Neuerung: GPT-5.5 steuert über die Codex-Umgebung autonom den Browser. Webseiten öffnen, Formulare ausfüllen, Screenshots analysieren und weiterarbeiten — in einer Schleife, bis die Aufgabe erledigt ist. Damit schließt OpenAI die Architektur, die sich beim Codex-for-Almost-Everything-Update andeutete: Codex wird zur KI-Betriebsschicht für die echte Welt.
Ein überraschender Befund aus frühen Praxistests: GPT-5.5 findet echte Sicherheitslücken in Codebases, die weder Vorgängermodelle noch Claude Opus entdeckt hätten. Aus der gelegentlichen Sicherheitsüberprüfung wird damit ein möglicher Dauerprozess. Die Preisgestaltung positioniert das Modell klar im Premiumsegment — Thinking ab 5 Dollar, Pro ab 30 Dollar pro Million Input-Tokens.
GPT-5.5 fühlt sich weniger wie ein Modell-Upgrade an und mehr wie OpenAIs Vorstoß in echtes Agenten-Territorium.
→ Vollständige Analyse auf kiwoche.com
OPEN SOURCE & GEOPOLITIK
DeepSeek V4: 1,6 Billionen Parameter — und kein einziger NVIDIA-Chip
DeepSeek hat am 24. April seine V4-Familie veröffentlicht — und damit das bislang größte Open-Source-Sprachmodell der Welt ins Rennen geschickt. Das Flaggschiff V4-Pro bringt 1,6 Billionen Parameter mit, von denen pro Anfrage nur rund 49 Milliarden aktiv werden (Mixture-of-Experts). Kontextfenster: eine Million Tokens. Lizenz: MIT — Gewichte, Code, alles offen.
Das eigentlich Brisante steckt nicht in den Benchmark-Zahlen, sondern in der Hardware: V4 läuft erstmals vollständig auf Huawei Ascend 950PR-Chips — kein NVIDIA, kein AMD. In der Branche wird das als Beginn der „De-CUDAisierung" diskutiert. Die US-Exportkontrollpolitik gegen chinesische KI-Labore verliert an Wirkung, wenn die Labore auf leistungsfähige Alternativen ausweichen können. Jensen Huang hatte gewarnt — V4 bestätigt seine Sorge.
Preislich unterboten: V4-Pro kostet rund 1,50 Euro pro Million Input-Tokens — der Faktor 10 unter OpenAIs GPT-5.5. Wer V4 nicht selbst betreiben will, findet die Modelle auf Hugging Face und ModelScope.
→ Vollständige Analyse auf kiwoche.com
WIRTSCHAFT & GESELLSCHAFT
Das Produktivitäts-Angst-Paradox: Wer am meisten gewinnt, fürchtet sich am meisten
Zwei unabhängige Studien kommen diese Woche zum gleichen beunruhigenden Befund. Anthropics Befragung von 81.000 Claude-Nutzern — die bislang größte KI-Nutzerstudie überhaupt — zeigt: Die produktivsten KI-Anwender haben die stärkste Jobangst. Berufseinsteiger stehen unter dem größten Druck, weil ihre Aufgaben am stärksten substituierbar sind.
Die Stanford-MIT-Studie „WorkBank" schärft dieses Bild: 1.500 Fachkräfte aus 104 Berufen wurden befragt — und 41 Prozent der VC-finanzierten KI-Startups automatisieren Aufgaben, die die Beschäftigten gar nicht abgeben wollen. Eine öffentliche Datenbank zeigt nun, wo Mensch und Maschine kollidieren — und wer in der „Red Light Zone" steht.
Parallel schlägt Meta eine neue Front auf: Der Konzern zeichnet systematisch Maus- und Tastatureingaben seiner Mitarbeiter auf. Was als interne Optimierung kommuniziert wird, ist in Wahrheit das Training autonomer KI-Agenten für Bürotätigkeiten. Die eigenen Angestellten trainieren ihre virtuellen Nachfolger.
NEUE MODELLE & TOOLS
- 🖼️ GPT-Image-2 — OpenAI begeistert mit neuer Bildgeneration und etabliert sich als erste Anlaufstelle für UI-Mockups als Vorlage für Code-Implementierungen.
- 🌙 Kimi K2.6 — Moonshots Open-Source-Modell übertrifft GPT-4o in zentralen Benchmarks. Ein weiterer Beleg für den Open-Source-Druck aus China.
- 🤖 OpenAI Workspace Agents — ChatGPT wird zur Team-Automatisierung mit geteilten KI-Agenten in der Cloud.
- 🦊 Grok — Das unterschätzte KI-Imperium von xAI führt Leaderboards in Medizin und Coding an.
- 🔍 Codex-Leak — Ein 47-minütiger Routing-Fehler zeigte, wie OpenAI Reasoning, Agenten und Gedächtnis künftig trennen will.
WEITERE NEUIGKEITEN
- 🤖 Robotik-Meilenstein — HONOR-Roboter gewinnt den Pekinger Humanoid-Halbmarathon in 50:26 Minuten und unterläuft den menschlichen Weltrekord.
- 🏪 Luna ist der Boss — San Franciscos erster KI-geführter Laden, bei dem ein Agent den Mietvertrag hält und Personal einstellt.
- 💡 GPT-5.5 Shadow-Drop — Das unangekündigte Pro-Update tauchte kurz vor dem offiziellen Launch bereits in ersten IDEs auf.
🎯 Was das für die Praxis bedeutet
1. Chatbots sind Geschichte, Agenten sind Realität: GPT-5.5 zeigt, dass Modelle zunehmend wie autonome Mitarbeiter agieren, die Tools und Interfaces steuern. Die Implementierungsstrategie muss sich anpassen.
2. China macht sich unabhängig: DeepSeeks Erfolg ohne NVIDIA-Chips verändert die Geopolitik. Unternehmen sollten in ihrer Hardware-Strategie Open-Source-Alternativen neu bewerten.
3. Jobangst aktiv managen: Wenn die produktivsten Mitarbeiter am meisten Angst haben, ersetzt KI-Software nicht das interne Change-Management. Wer Agenten einführt, muss die Perspektive seiner Teams klären.