Eine einzelne Kennzahl zeigt die Dimension des KI-Booms besser als alle Umsatzrekorde: Die kumulierte Speicherbandbreite aller seit 2022 ausgelieferten KI-Chips hat Ende 2025 rund 70 Millionen Terabyte pro Sekunde erreicht. Das ist genug, um alle im Internet gespeicherten Daten in weniger als einer Stunde durch den Speicher zu schieben. Und die Wachstumskurve beschleunigt sich weiter — mit einem jährlichen Faktor von 4,1x.
Die Analyse stammt von Epoch AI, einer der renommiertesten Forschungseinrichtungen für KI-Trendanalysen. Die Forscher haben Finanzdaten von fünf großen Chipherstellern ausgewertet: Nvidia, AMD, Google, Amazon und Huawei.
Warum Speicherbandbreite der entscheidende Engpass ist
High-Bandwidth Memory (HBM) ist die Schlüsselkomponente moderner KI-Chips. Sie bestimmt, wie schnell Daten zwischen dem Prozessor und dem Speicher fließen können — und damit, wie effizient ein Modell trainiert und betrieben werden kann. Im Jahr 2025 gingen über 90 Prozent der weltweiten HBM-Produktion (gemessen am Umsatz) in KI-Chips.
Die 70 Millionen TB/s kumulierte Bandbreite sind dabei rund 300.000-mal mehr als der gesamte weltweite Internetverkehr pro Sekunde. Diese Zahl relativiert das oft gehörte Argument, der KI-Boom sei eine Blase: Die physische Infrastruktur, die gebaut wird, ist real, massiv und wächst exponentiell.
Der Nvidia-Hopper-Übergang als methodische Herausforderung
Besonders interessant ist Epoch AIs methodische Transparenz. Die größte Herausforderung bei der Analyse war der Übergang von Nvidias H100 zum H200: Beide Chips werden in den Finanzberichten gemeinsam ausgewiesen, haben aber unterschiedliche Speicherspezifikationen (der H200 hat 76% mehr Speicher). Die Forscher modellierten den Übergang mit einer logistischen S-Kurve, kalibriert an sechs öffentlichen Datenpunkten — von Jensen Huangs persönlicher Übergabe des ersten H200 an OpenAI bis zu Exportregelungen.
Die Perspektive: 4,1x pro Jahr
Das jährliche Wachstum von 4,1x bei der Speicherbandbreite übertrifft selbst das Mooresche Gesetz bei weitem. Wenn sich dieser Trend fortsetzt, wird die globale KI-Chip-Bandbreite bis Ende 2027 die Milliarden-TB/s-Schwelle durchbrechen — eine Rechenkapazität, die völlig neue Modellarchitekturen und Anwendungen ermöglichen wird.
🎯 Was das für die Praxis bedeutet
1. Hardware-Investition ist real: Die exponentielle Steigerung der Speicherbandbreite zeigt, dass der KI-Boom nicht auf Hype basiert, sondern auf massiven Infrastruktur-Investitionen, die bereits getätigt sind.
2. Modelle werden schneller und größer: Mehr Bandbreite ermöglicht größere Modelle mit schnellerer Inferenz. Was heute noch minutenlang dauert, könnte in zwei Jahren in Echtzeit laufen.
3. HBM-Lieferkette beobachten: SK Hynix, Samsung und Micron sind die drei HBM-Hersteller. Engpässe in dieser Lieferkette können den gesamten KI-Fortschritt bremsen — ein Risikofaktor für jede KI-Strategie.