Emergent Behavior
Emergent Behavior (emergentes Verhalten) beschreibt Fähigkeiten oder Verhaltensweisen eines KI-Systems, die nicht explizit trainiert wurden, sondern als Nebenprodukt der Skalierung oder des Trainingsverfahrens „auftauchen".
Wei et al. (Google, 2022) definierten emergente Fähigkeiten als Leistungen, die bei kleinen Modellen nicht vorhanden sind, aber bei größeren abrupt auftreten. Beispiele: GPT-3 konnte plötzlich mehrstellige Addition, ohne explizit darauf trainiert worden zu sein. Mehrstufiges Reasoning trat bei Modellen ab einer bestimmten Größe auf. Chain-of-Thought Prompting funktioniert nur bei Modellen über einer Schwellengröße.
Die Debatte ist kontrovers. Schaeffer et al. (Stanford, 2023) argumentierten, dass emergente Fähigkeiten ein Messartefakt sein können: Mit einer anderen Metrik (linear statt nicht-linear) zeigen dieselben Fähigkeiten eine graduelle Verbesserung statt eines plötzlichen Sprungs. Die Wahl der Evaluierungsmetrik bestimmt, ob ein Phänomen „emergent" erscheint.
Für die KI-Sicherheit ist Emergenz beunruhigend: Wenn Fähigkeiten unvorhersehbar auftreten, können auch unerwünschte Fähigkeiten (Deception, Manipulation) emergieren, ohne dass sie beabsichtigt oder vorhersehbar waren.
Philosophisch knüpft das Konzept an die Emergenz in komplexen Systemen an: Bewusstsein „emergiert" aus Neuronen, Staubildung „emergiert" aus individuellen Fahrverhalten, Börsencrashs „emergieren" aus Einzelentscheidungen. Ob die KI-Emergenz dieselbe Qualität hat, ist eine offene Frage.