Anthropic hat am 16. April 2026 den Claude Opus 4.7 veröffentlicht — und selten fiel das Echo der KI-Community derart gespalten aus. Während das neue Flaggschiff-Modell in anspruchsvollen Benchmarks und Code-Aufgaben neue Bestwerte erzielt, häufen sich gleichzeitig Berichte über unerwartete Schwächen bei ehemals simplen Anforderungen.
Nach dem ersten Test-Tag lässt sich das ambivalente Stimmungsbild in einem Satz zusammenfassen: Wer Software entwickelt, feiert das Update — wer auf kreative Nuancen hofft, ist oft enttäuscht.
Die Highlights: Opus 4.7 glänzt beim Coden und im 3D-Design
Die unbestrittenen Stärken des Updates liegen im Bereich Software-Entwicklung und bei Vision-Aufgaben. In Benchmark-Tests deklassiert Opus 4.7 seinen Vorgänger regelrecht: Das Modell belegt laut Vals AI Platz eins im Vibe Code Benchmark mit einer beeindruckenden Trefferquote von 71 Prozent. Zum Vergleich: Noch vor gut vier Monaten schaffte in diesem Test, der das Erstellen kompletter Web-Applikationen misst, kein Modell die 25-Prozent-Marke.
Besonders gefeiert wird die Leistung beim agentischen CAD-Design. Der Nutzer Adam (@adamdotnew) krönt Opus 4.7 zum aktuell stärksten Modell bei der automatisierten Konstruktion von 3D-Bauteilen. Sein dazugehöriges Demonstrationsexperiment ging mit weit über 680.000 Aufrufen rasend schnell viral.
Die Krux mit dem «Adaptive Thinking»
Der technologische Kern des Updates ist das neue «Adaptive Thinking»-System. Die Idee klingt bestechend: Das Modell analysiert die Aufgabenkomplexität und wendet dynamisch mehr Rechenleistung («Reasoning») auf, wenn es knifflig wird, und agiert schneller bei trivialen Prompts. In der Praxis entpuppt sich dieses Feature jedoch als zweischneidiges Schwert.
Der renommierte Wharton-Professor Ethan Mollick kritisiert, dass das System eigenmächtig entscheidet, dass kreative oder diskursive Schreibaufgaben angeblich «wenig Aufwand» erfordern — und liefert folgerichtig spürbar schwächere, oberflägliche Ergebnisse als Opus 4.6. Im Gegensatz zu ChatGPT fehlt Claude eine manuelle Kontrollfunktion, um das Modell explizit in den erweiterten Denkmodus zu zwingen.
Rückschritte erzürnen die Stamm-Community
Was auf Plattformen wie X und Reddit für massiven Unmut sorgt, ist das temporäre Versagen bei Aufgaben, die Opus 4.6 noch souverän und zuverlässig löste. Ein eindrucksvolles Beispiel lieferte Entwickler @stevibe: Eine komplexe Canvas-Animation, die beim Vorgängermodell zweimal fehlerfrei lief, scheiterte bei Opus 4.7 kläglich in beiden Durchgängen.
Noch pointierter fasste es der renommierte KI-Experte Simon Willison in einem viralen Post zusammen: Bei seinem «Pelikan-Benchmark» — einem Test für kreatives Textverständnis — musste sich das riesige Anthropic-Modell einem kleinen 21-Gigabyte-Modell, das lokal auf seinem Laptop lief, geschlagen geben.
Auf Reddit kocht die Stimmung im r/ClaudeAI-Forum hoch. Nutzer beschweren sich, das Modell ignoriere Custom Instructions («Project Knowledge»), erfinde Web-Ergebnisse und breche Aufgaben vorzeitig ab. Das Urteil vieler Heavy-User lautet besorgt: Das Modell wirke paradoxerweise «dümmer».
Zusatz-Frust: 35 Prozent höherer Token-Verbrauch
Als wäre die qualitative Debatte nicht genug, sorgt auch die Kostenstruktur für Ärger. Opus 4.7 nutzt einen neuen Tokenizer, der Eingaben schlicht verschwenderischer behandelt. In der Praxis benötigt das Modell nun bis zu 1,35-mal so viele Token für denselben Inhalt. Santiago (@svpino) warnte das Entwickler-Ökosystem daher eindringlich davor, blind auf das neue Modell zu migrieren.
Fazit: Ein strategisches Risiko für Anthropic
Ausgerechnet jetzt, wo OpenAI mit seinem nächsten großen Modell («Spud»/GPT-5.5) beinahe stündlich in den Startlöchern erwartet wird, leistet sich Anthropic ein polarisierendes Update. Die Marke Claude hat sich mühsam den Ruf der höchsten Zuverlässigkeit und Instruktionstreue aufgebaut — beides wird durch Opus 4.7 derzeit in Frage gestellt. Ob Anthropic die Probleme mit einem schnellen Point-Release beheben kann, wird über die Akzeptanz im kommenden Konkurrenzkampf entscheiden.
🎯 Was das für die Praxis bedeutet
1. Coder und 3D-Designer sollten upgraden: In der Software-Entwicklung, beim Umgang mit Code-Repositories und im technischen Design ist Opus 4.7 seinem Vorgänger deutlich überlegen. Hier lohnt sich der Einsatz sofort.
2. Vorsicht bei Textarbeit und Regelfolge: Wer Opus für zuverlässige Datenextraktion, Animationsskripte oder kreatives Schreiben nutzt, sollte unbedingt vorerst bei Opus 4.6 bleiben. Die beobachteten Rückschritte beim Befolgen von Anweisungen und in der Kreativität sind gravierend.
3. API-Budget kalkulieren: Der neue Tokenizer verbraucht bis zu 35 % mehr Token für die gleiche Eingabe. Wer Opus 4.7 produktiv in Applikationen einsetzt, muss zwingend die Kosten neu kalkulieren.
4. Abwarten als beste Strategie: Da OpenAI kurz vor dem Launch seines nächsten Modells steht und Anthropic die Kritik sicher intern analysiert, ist eine selektive Nutzung des alten 4.6-Modells vorerst am sichersten.