Wer die Rechenleistung kontrolliert, kontrolliert die Zukunft der Künstlichen Intelligenz. Diese These klingt abstrakt — bis man die Zahlen sieht. Am Sonntagabend hat das Forschungsinstitut Epoch AI mit dem AI Chip Owners Explorer erstmals eine öffentlich zugängliche, interaktive Karte veröffentlicht, die zeigt, wem die KI-Chips der Welt tatsächlich gehören.
Die Ergebnisse sind ernüchternd eindeutig — und für Europa alarmierend.
Fünf US-Konzerne besitzen über 60 Prozent der weltweiten KI-Rechenleistung
Der Explorer misst die Kapazität in H100-Äquivalenten (H100e) — einer Einheit, die die Leistung aller Chip-Typen auf Nvidias verbreiteten H100-Prozessor umrechnet. Stand Ende 2025 ergibt sich folgendes Bild:
- Google (Alphabet): rund 5 Millionen H100e — klarer Spitzenreiter, hauptsächlich durch eigene TPU-Chips (ca. 3,7 Millionen davon)
- Microsoft: rund 3,5 Millionen H100e, fast ausschließlich Nvidia-GPUs
- Amazon: rund 3 Millionen H100e, davon etwa ein Drittel eigene Trainium-Chips
- Meta: rund 2,2 Millionen H100e
- Oracle: rund 1,1 Millionen H100e — der Aufsteiger, unter anderem als Infrastrukturpartner von OpenAI
Zusammen kommen diese fünf auf über 60 Prozent der gesamten weltweit verbauten KI-Rechenleistung. China liegt laut den Daten bei knapp über 5 Prozent — selbst bei großzügiger Zählung, und ohne den Schmuggel exportkontrollierter Chips einzurechnen.
Google dominiert — aber nicht wegen Nvidia
Dass Google auf Platz eins steht, überrascht nur auf den ersten Blick. Der Konzern ist nicht nur einer der größten Nvidia-Kunden, sondern entwickelt seit Jahren eigene KI-Prozessoren: die TPUs (Tensor Processing Units), die in Kooperation mit Broadcom gefertigt werden. Laut Epoch AI machen Googles TPUs inzwischen den größten Teil seiner KI-Kapazität aus — und verschaffen dem Konzern einen strukturellen Vorsprung.
Microsoft dagegen setzt nahezu vollständig auf Nvidia-Hardware und ist mit schätzungsweise 21 Prozent von Nvidias Data-Center-Umsatz laut Epoch AIs dokumentierter Methodik deren größter Einzelkunde. Meta folgt mit rund 13 Prozent.
OpenAI und Anthropic: mächtige Modelle, kaum eigene Hardware
Der vielleicht überraschendste Befund: Die bekanntesten KI-Labore besitzen fast keine eigene Rechenleistung. OpenAI mietet seine Kapazitäten bei Microsoft, Oracle (über das „Stargate"-Projekt) und CoreWeave. Anthropic nutzt primär Amazon Web Services und Google Cloud.
Das macht diese Labore in einer strategischen Dimension abhängig von ihren Cloud-Partnern — die gleichzeitig eigene KI-Modelle entwickeln und damit direkte Konkurrenten sind. Epoch AI formuliert es nüchtern: „Dieses Hub bildet Besitzverhältnisse ab, nicht Nutzung. Die meisten Frontier-KI-Entwickler besitzen die Chips, die sie für Training und Inferenz verwenden, nicht selbst."
Randnotiz: Anthropic kauft sich frei
Passend zu diesen Daten gab Anthropic am selben Abend bekannt, einen Vertrag mit Google und Broadcom über mehrere Gigawatt an TPU-Kapazität der nächsten Generation unterzeichnet zu haben. Die Infrastruktur soll ab 2027 verfügbar sein und für Training und Betrieb der Frontier-Modelle von Claude eingesetzt werden.
Es ist nicht der erste Schritt in diese Richtung: Bereits Ende 2025 hatte Broadcom enthüllt, dass Anthropic Bestellungen im Wert von 21 Milliarden Dollar für TPUv7-Chips platziert hatte. Der neue Deal geht darüber hinaus — mit Chips der nächsten Generation und einem Volumen, das in Gigawatt Rechenzentrums-Kapazität gemessen wird. Epoch AI schätzt, dass Anthropic allein 2026 rund 600.000 TPUv7-Chips erhalten könnte — bis zu 20 Prozent der gesamten TPU-Produktion.
Die Botschaft: Anthropic will sich aus der reinen Mieter-Rolle lösen und selbst zum Hardware-Besitzer werden (→ KI Woche Analyse).
Die „anderen": CoreWeave, Sovereign AI und das Schattenreich
Unter „Other" fasst Epoch AI rund 4,9 Millionen H100e zusammen — fast so viel wie Google allein. Dahinter verbergen sich unter anderem:
- Neoclouds wie CoreWeave (850 MW Rechenzentrums-Kapazität, vermutlich sechstgrößter Nvidia-Kunde), Nebius, Nscale und Lambda
- „Sovereign AI"-Projekte: Staatlich geförderte Initiativen, die laut Nvidia 15 Prozent des KI-Chip-Umsatzes ausmachen — vor allem in Kanada, Frankreich, den Niederlanden, Singapur und Großbritannien
- Unternehmen und Forschungseinrichtungen, die eigene Cluster betreiben, etwa die US-Nationallabore
Europa taucht in diesen Daten als eigenständiger Akteur nicht auf.
Warum diese Daten wichtig sind
Die Konzentration ist auch deshalb relevant, weil KI-Modelle ohne Rechenleistung nicht trainiert und nicht betrieben werden können — egal wie brillant die Architektur ist. Wer Chips besitzt, entscheidet, welche Modelle wann trainiert werden, wer Zugang bekommt und zu welchem Preis. Die Epoch-Daten machen sichtbar, dass dieses Machtgefüge fast vollständig in den Händen von fünf US-Technologiekonzernen liegt (→ KI Woche Analyse).
Der gesamte Datensatz ist unter einer Creative-Commons-Lizenz frei verfügbar. Epoch AI stellt sowohl die Methodik als auch den Quellcode ihrer Monte-Carlo-Modelle offen — ein Vorgehen, das bei Analysen dieser strategischen Tragweite selten ist.
🎯 Was das für die Praxis bedeutet
1. Cloud-Abhängigkeit bewerten: Wer KI-Modelle trainiert oder betreibt, sollte verstehen, wem die darunter liegende Hardware gehört — und welche Risiken mit dieser Konzentration einhergehen.
2. Europa fehlt auf der Landkarte: In den Epoch-Daten taucht kein einziger europäischer Akteur als relevanter Chip-Besitzer auf. Für Unternehmen und Forschungseinrichtungen im deutschsprachigen Raum bedeutet das: doppelte Abhängigkeit — von US-Cloud-Anbietern und US-Chipherstellern.
3. Sovereign-AI-Initiativen beobachten: Mehrere Staaten investieren gezielt in eigene Rechenkapazitäten. Die Epoch-Daten liefern erstmals eine Vergleichsbasis, um solche Projekte einzuordnen.
4. Anthropics Strategiewechsel verfolgen: Der Multi-Gigawatt-Deal mit Google und Broadcom signalisiert, dass führende KI-Labore die Cloud-Abhängigkeit aktiv abbauen wollen. Das könnte die Machtverhältnisse in der Branche mittelfristig verschieben.