Anthropic wächst schneller als jedes KI-Unternehmen zuvor. Laut einer Ankündigung des Unternehmens hat der annualisierte Umsatz die Marke von 30 Milliarden Dollar überschritten — gegenüber 9 Milliarden Ende 2025. Ein Sprung um den Faktor drei in weniger als einem halben Jahr.

Gleichzeitig hat Anthropic eine strategische Partnerschaft mit Google und Broadcom geschlossen, die die gesamte Recheninfrastruktur der KI-Branche neu ordnen könnte.

Drei Unternehmen, mehrere Gigawatt

Der Deal mit Google und Broadcom sichert Anthropic „mehrere Gigawatt" an Rechenkapazität durch nächste Generation TPUs ab 2027. Um die Dimension einzuordnen: Das entspricht der Leistung von drei amerikanischen Kernkraftwerken. Die Kapazität wird primär in den USA aufgebaut.

Bemerkenswert ist Anthropics Multi-Cloud-Strategie. Anders als Wettbewerber, die sich an einen Infrastrukturanbieter binden, fährt Anthropic dreigleisig: AWS (Project Rainier), Google Cloud (TPUs über Broadcom) und NVIDIA-Hardware. Broadcom-CEO Hock Tan soll in diesem Zusammenhang Custom-Chip-Aufträge im Umfang von 10 bzw. 11 Milliarden Dollar bestätigt haben.

1.000 Kunden über eine Million Dollar

Die Umsatzzahlen werden durch die Kundenbasis untermauert. Laut der Ankündigung zahlen inzwischen über 1.000 Geschäftskunden mehr als eine Million Dollar jährlich für Claude. Darunter sollen sich mehrere Fortune-10-Unternehmen befinden. Zum Vergleich: Bei der Series-G-Finanzierung im Februar 2026 soll der Umsatz bei rund 14 Milliarden Dollar gelegen haben — innerhalb von zwei Monaten hat sich der Run-Rate-Umsatz nochmals mehr als verdoppelt.

Was Anthropic neben Rechenpower baut

Parallel zur Infrastruktur-Offensive erweitert Anthropic sein Ökosystem in drei Richtungen: Ein Memorandum of Understanding mit der australischen Regierung zum Thema KI-Sicherheit, das Claude Partner Network mit 100 Millionen Dollar Investitionsvolumen und das neu gegründete Anthropic Institute als Forschungseinrichtung für KI-Sicherheit.

Die Botschaft ist klar: Anthropic positioniert sich nicht nur als Modellentwickler, sondern als systemischer KI-Infrastrukturanbieter — mit eigener Hardware-Pipeline, eigenem Partnernetzwerk und eigener Governance-Struktur.

🎯 Was das für die Praxis bedeutet

1. Claude ernsthaft evaluieren: 1.000 Unternehmen zahlen über eine Million Dollar jährlich für Claude. Wer Anthropic bisher als kleinen Herausforderer abgetan hat, unterschätzt die Dynamik — und verpasst möglicherweise das bessere Enterprise-Angebot.

2. Multi-Cloud-Strategie als Vorbild: Anthropics bewusste Verteilung auf AWS, Google und NVIDIA zeigt, wie sich Abhängigkeiten in der KI-Infrastruktur diversifizieren lassen. Für eigene KI-Projekte lohnt sich ein ähnlicher Ansatz.

3. Energiebedarf einplanen: Mehrere Gigawatt für einen einzigen Anbieter verdeutlichen die physische Realität hinter KI-Diensten. Unternehmen, die betriebseigene KI-Infrastruktur planen, müssen Rechenkapazität und Stromversorgung als strategische Ressource behandeln.

Dieser Artikel enthält eingebettete Inhalte Dritter (z. B. Videos, Social-Media-Beiträge). kiwoche.com berichtet über diese Inhalte, macht sie sich jedoch nicht zu eigen. Die Rechte und die Verantwortung liegen beim jeweiligen Urheber bzw. Plattformbetreiber.

📰 Quellen
Anthropic Blog ↗ MilkRoad AI auf X ↗ MilkRoad AI IPO auf X ↗ MilkRoad AI OpenAI CFO auf X ↗ Polymarket auf X ↗ Hesamation auf X ↗
Teilen: