Zum Inhalt springen KI-Lexikon — Die KI Woche
Aktuelle Beiträge
Lade Beiträge…
📰 Alle Beiträge 📬 Newsletter
Hardware

CPU (Central Processing Unit)

Die CPU (Central Processing Unit) — der Hauptprozessor eines Computers — ist der Universalist unter den Chips: Sie kann alles berechnen, aber nichts davon massiv parallel. In der KI-Welt ist sie deshalb der Flaschenhals und der Ermöglicher zugleich.

CPUs sind für sequentielle Aufgaben optimiert: ein paar Kerne (4–128), die jeweils sehr schnell und flexibel einzelne Berechnungen durchführen. GPUs dagegen haben Tausende kleiner Kerne, die dieselbe Operation gleichzeitig auf viele Datenpunkte anwenden — perfekt für die Matrix-Multiplikationen, die neuronale Netze dominieren.

Deshalb findet KI-Training fast ausschließlich auf GPUs (Nvidia), TPUs (Google) oder spezialisierten Beschleunigern statt. Eine Nvidia H100 GPU liefert ca. 3.000 TFLOPS (FP8) — eine moderne CPU schafft ein Bruchteil davon. Der Unterschied: Wochen Training auf einer CPU würden auf GPUs in Stunden erledigt.

Trotzdem bleibt die CPU relevant. Sie steuert den Gesamtprozess: Daten laden, Preprocessing, Modell-Orchestrierung, Postprocessing. Für Inferenz (Modellausführung) kleinerer Modelle reicht die CPU oft aus — Apples Neural Engine in M-Chips und Intels Neural Compute Stick zeigen, dass CPU-nahe Architekturen für Edge-Inferenz effizient sein können.

Die CPU-GPU-Kluft schrumpft langsam: AMD, Intel und Apple integrieren zunehmend KI-spezifische Beschleuniger in ihre Prozessoren (NPU, Neural Processing Unit). Die Frage ist, ob diese integrierten Lösungen den Bedarf lokaler KI-Inferenz decken können — für Training wird die diskrete GPU noch lange dominant bleiben.

Compute
🔗 Link kopiert!