Hallucination
Halluzination ist ein spezifischer, oft irreführender Begriff für ein Phänomen bei Large Language Models (LLMs), bei dem das Modell eine Antwort generiert, die plausibel und logisch klingt, aber faktisch falsch oder komplett erfunden ist. Das Modell kann überzeugend Zitate erfinden, die nie gesagt wurden, juristische Fälle zitieren, die es nicht gibt, oder Biografien vermischen.
Der Grund liegt in der Funktionsweise: LLMs sind keine Wissensdatenbanken, die Fakten nachschlagen, sondern probabilistische Maschinen, die das nächste Wort vorhersagen. Wenn sie eine Wissenslücke haben, 'raten' sie das statistisch wahrscheinlichste Wort, um den Satz zu vervollständigen. Für das Modell gibt es keinen Unterschied zwischen 'Wahrheit' und 'wahrscheinlicher Wortfolge'. Die Reduktion von Halluzinationen (z.B. durch RAG oder Grounding) ist ein aktives Forschungsfeld.