KI frisst Strom. Über 10 Prozent des gesamten US-Stromverbrauchs gehen inzwischen an KI-Systeme. Doch Forscher der Tufts University haben eine Methode vorgestellt, die den Energieverbrauch um den Faktor 100 senken soll — bei gleichzeitig besseren Ergebnissen.

Der Trick: Statt das KI-System millionenfach raten zu lassen, bringen die Forscher ihm bei, zuerst zu denken, dann zu handeln.

Neuronale Netze plus symbolisches Denken

Das Team um Jivko Sinapov kombiniert zwei Ansätze, die bisher als gegensätzlich galten. Klassische neuronale Netze — die Grundlage aller aktuellen KI-Modelle — erkennen Muster, indem sie gigantische Datenmengen durcharbeiten. Symbolisches Schlussfolgern dagegen arbeitet mit logischen Regeln und Plänen, ähnlich wie ein Mensch ein Problem strukturiert löst.

Die Tufts-Forscher verschmelzen beide Ansätze zu einer „neuro-symbolischen" Architektur. Das neuronale Netz erkennt, was es auf dem Bild sieht. Ein darüberliegender Planer — basierend auf der formalen Planungssprache PDDL — bestimmt dann die optimale Handlungssequenz. Das System schaut also erst hin, denkt nach und handelt dann gezielt — statt tausendfach auszuprobieren, was funktionieren könnte.

Die Zahlen sind drastisch

In standardisierten Robotik-Tests (Towers of Hanoi, 3 Blöcke) erreichte das neuro-symbolische System laut dem zugehörigen Paper eine Erfolgsrate von 95 Prozent — gegenüber 34 Prozent für sogenannte Vision-Language-Action-Modelle (VLAs) wie π₀, die zur aktuellen Spitzenklasse gehören. Bei komplexeren Aufgaben (4 Blöcke) generalisierte das neuro-symbolische System auf 78 Prozent, während der VLA-Ansatz vollständig versagte.

Noch eindrucksvoller: Das gesamte Training dauerte 34 Minuten. Das VLA-Gegenstück brauchte für Training und Fine-Tuning fast 100-mal mehr Energie.

Warum das die Energiedebatte verändert

Die Ergebnisse treffen einen Nerv. Die aktuelle KI-Entwicklung steht unter zunehmendem Druck wegen ihres Energieverbrauchs. Rechenzentren für KI-Training verschlingen Ressourcen in einer Größenordnung, die ganze Städte versorgen könnte. Wenn neuro-symbolische Ansätze auch nur einen Teil dieser Effizienzgewinne in der Praxis liefern, hätte das massive Auswirkungen auf die Wirtschaftlichkeit von KI-Systemen.

Das Paper wird auf der International Conference on Robotics and Automation in Wien im Mai 2026 präsentiert.

🎯 Was das für die Praxis bedeutet

1. Hybride Architekturen beobachten: Die Kombination aus neuronalen Netzen und symbolischem Schlussfolgern könnte die nächste große Effizienzverbesserung in der KI werden — besonders für Robotik und industrielle Anwendungen.

2. Energiekosten als KI-Entscheidungsfaktor: Bei 100-fachem Unterschied im Energieverbrauch wird die Wahl der Architektur zur betriebswirtschaftlichen Grundsatzentscheidung. Fragen Sie bei Ihren KI-Anbietern nach dem Energieprofil ihrer Modelle.

3. Robotik-Investments neu bewerten: VLA-Modelle galten als Königsweg für autonome Systeme. Die Tufts-Ergebnisse zeigen, dass effizientere Alternativen existieren — mit besserer Leistung und dramatisch niedrigeren Kosten.

Dieser Artikel enthält eingebettete Inhalte Dritter (z. B. Videos, Social-Media-Beiträge). kiwoche.com berichtet über diese Inhalte, macht sie sich jedoch nicht zu eigen. Die Rechte und die Verantwortung liegen beim jeweiligen Urheber bzw. Plattformbetreiber.

📰 Quellen
SciTech Era auf X ↗ ScienceDaily ↗ arXiv Paper ↗
Teilen: