Feedback Loop
Eine Feedback Loop (Rückkopplungsschleife) tritt auf, wenn die Ausgabe eines Systems seine eigene Eingabe beeinflusst — ein Muster, das in KI-Systemen sowohl gewollt (Training) als auch ungewollt (Bias-Verstärkung) auftreten kann.
Positive Feedback Loops verstärken einen Effekt. In KI: Ein Empfehlungsalgorithmus, der populäre Inhalte stärker empfiehlt, macht diese noch populärer, was zu noch mehr Empfehlungen führt. Ein Kreditscoring-System, das einer Postleitzahl schlechtere Scores gibt, führt zu weniger Kreditgenehmigungen, weniger wirtschaftlicher Entwicklung und noch schlechteren Scores — ein selbstverstärkender Zyklus.
Negative Feedback Loops stabilisieren ein System. Der Thermostat ist das Standardbeispiel: Zu warm → Heizung aus → kühler → Heizung an. Im ML-Training: Der Loss-Wert gibt dem Modell Feedback, wie falsch seine Vorhersagen sind — das Modell korrigiert sich.
Im Reinforcement Learning ist die Feedback Loop explizit: Agent → Aktion → Umgebung → Belohnung → Agent lernt → bessere Aktion. RLHF (Reinforcement Learning from Human Feedback) ist eine gesteuerte Feedback Loop: Menschen bewerten Modellantworten, das Modell lernt daraus, die Bewertungen fließen wieder ein.
Die gefährlichsten Feedback Loops sind unsichtbare: Ein KI-System in der Strafverfolgung sagt vorher, wo Verbrechen wahrscheinlich sind. Mehr Polizei wird dorthin geschickt. Mehr Verhaftungen werden gemacht (weil mehr Polizei → mehr Entdeckungen). Die Daten „bestätigen" die Vorhersage. Das Modell verstärkt bestehende Policing-Muster, statt Kriminalität objektiv vorherzusagen.