Ein neues Forschungspapier der Stanford University kratzt gewaltig am Image der aktuellen Sprachmodelle (LLMs). Die Forscher untersuchten systematisch, warum KI-Modelle trotz beeindruckender Ergebnisse in Benchmark-Tests in der echten Welt regelmäßig scheitern.
Besonders brisant ist das Phänomen des "ungetreuen Schließens" (unfaithful reasoning): Die KI liefert zwar das richtige Endergebnis, die dahinterliegende logische Erklärung ist jedoch oft völlig frei erfunden oder fehlerhaft. Die Modelle lernen demnach in erster Linie, wie eine vernünftige Begründung klingen muss, anstatt echte mechanische Logik anzuwenden.
Zerbrechliche Logik
Die Studie unterscheidet zwischen physischer Logik (Verständnis der realen Welt) und abstrakter Logik (Mathematik). Die Fehler mustergleichen sich dabei alarmierend über beide Bereiche. Häufig bricht die scheinbare Intelligenz der Modelle zusammen, sobald man auch nur ein einziges Wort in der Fragestellung ändert. Sie haben zudem keinerlei grundlegendes Verständnis physikalischer Gesetze, was Modellantworten bei realweltlichen Problemstellungen spürbar fehleranfällig macht.
🎯 Was das für die Praxis bedeutet
1. Benchmarks sind nicht alles: Leaderboards und offizielle Leistungstests der Hersteller sind manchmal trügerisch. Ein Modell, das einen standardisierten Logiktest besteht, scheitert oft an ähnlichen, aber leicht veränderten Aufgaben im Arbeitsalltag.
2. Vertrauen ist gut, Kontrolle ist Pflicht: Wenn KI-Systeme überzeugend klingende, aber logisch falsche Begründungen für ihre (teilweise korrekten) Entscheidungen liefern, dürfen sie niemals für geschäftskritische oder rechtliche Beurteilungen ohne menschliche Überprüfung eingesetzt werden.