Zum Inhalt springen KI-Lexikon — Die KI Woche
Aktuelle Beiträge
Lade Beiträge…
📰 Alle Beiträge 📬 Newsletter
Problem

Energy Consumption

Der Energieverbrauch von KI-Systemen ist zu einem der drängendsten Probleme des Feldes geworden. Training und Inferenz großer Modelle erfordern enorme Mengen Strom — mit wachsenden Konsequenzen für Klima und Infrastruktur.

Die Zahlen sind ernüchternd. Das Training von GPT-3 verbrauchte geschätzt 1.287 MWh Strom — genug, um einen durchschnittlichen US-Haushalt für 120 Jahre zu versorgen. GPT-4 dürfte ein Vielfaches davon verbraucht haben. Eine einzelne ChatGPT-Anfrage verbraucht schätzungsweise 10-mal so viel Strom wie eine Google-Suche.

Auf Infrastrukturebene: Die IEA schätzt, dass Rechenzentren 2026 weltweit etwa 1.000 TWh Strom verbrauchen werden — eine Verdopplung gegenüber 2022. KI ist nicht der einzige Treiber, aber der am schnellsten wachsende. Microsoft, Google und Amazon haben ihre CO2-Emissionen 2023 trotz Nachhaltigkeitszielen erhöht — primär wegen des KI-Ausbaus.

Gegenmaßnahmen auf mehreren Ebenen: Effizientere Hardware (spezialisierte Chips, Analog-Computing, neuromorphe Chips). Effizientere Modelle (Quantisierung, Pruning, Knowledge Distillation, Mixture of Experts — nicht alle Parameter müssen bei jeder Anfrage aktiviert werden). Effizienteres Training (Chinchilla-Skalierung, Curriculum Learning, Transfer Learning). Erneuerbare Energien für Rechenzentren.

Die ethische Dimension: Ist es vertretbar, dass eine ChatGPT-Anfrage so viel Energie verbraucht wie eine Google-Suche der letzten Dekade? Die Antwort hängt davon ab, welchen Nutzen die KI stiftet — und wer die ökologischen Kosten trägt.

Environment
🔗 Link kopiert!