Zum Inhalt springen KI-Lexikon — Die KI Woche
Aktuelle Beiträge
Lade Beiträge…
📰 Alle Beiträge 📬 Newsletter
Ressource

Computing Power

Computing Power (Rechenleistung) ist die Menge an Berechnungen, die ein System pro Zeiteinheit ausführen kann — und in der KI-Ära entscheidet sie darüber, welche Modelle trainiert werden können und wer Zugang zur Technologie hat.

Die Entwicklung der Rechenleistung für KI hat sich von der allgemeinen Moore's Law abgekoppelt. Während die allgemeine CPU-Leistung sich etwa alle zwei Jahre verdoppelt, hat sich die für KI-Training verfügbare Compute laut OpenAI seit 2012 alle 3-4 Monate verdoppelt — ein Wachstum um den Faktor 300.000 in einem Jahrzehnt.

Die Hardware-Hierarchie ist klar. Nvidias GPUs dominieren: Eine H100 liefert ca. 3.000 TFLOPS (FP8). Googles TPU v5 ist auf Transformer-Workloads optimiert. Spezialisierte Startups (Cerebras mit dem Wafer-Scale Engine, Groq mit LPU) verfolgen Alternativansätze.

Die geopolitische Dimension ist explosiv. Die USA beschränken seit Oktober 2022 den Export fortschrittlicher KI-Chips nach China. Nvidia musste abgespeckte Versionen (A800, H800) entwickeln, die ebenfalls verboten wurden. Die Kontrolle über Computing Power wird zunehmend als strategische Ressource behandelt — analog zu Öl im 20. Jahrhundert.

Für Open-Source-KI und kleinere Organisationen ist der Zugang zu Compute die größte Barriere. Initiativen wie das NAIRR (National AI Research Resource) in den USA und das EuroHPC-Programm in Europa versuchen, öffentliche Compute-Infrastruktur für Forschung und KMUs bereitzustellen. Ob diese Bemühungen ausreichen, um die Konzentration der KI-Macht bei einer Handvoll Hyperscaler aufzubrechen, bleibt offen.

Hardware
🔗 Link kopiert!