Zum Inhalt springen KI-Lexikon — Die KI Woche
Aktuelle Beiträge
Lade Beiträge…
📰 Alle Beiträge 📬 Newsletter
System

Feedback Loop

Eine Feedback Loop (Rückkopplungsschleife) tritt auf, wenn die Ausgabe eines Systems seine eigene Eingabe beeinflusst — ein Muster, das in KI-Systemen sowohl gewollt (Training) als auch ungewollt (Bias-Verstärkung) auftreten kann.

Positive Feedback Loops verstärken einen Effekt. In KI: Ein Empfehlungsalgorithmus, der populäre Inhalte stärker empfiehlt, macht diese noch populärer, was zu noch mehr Empfehlungen führt. Ein Kreditscoring-System, das einer Postleitzahl schlechtere Scores gibt, führt zu weniger Kreditgenehmigungen, weniger wirtschaftlicher Entwicklung und noch schlechteren Scores — ein selbstverstärkender Zyklus.

Negative Feedback Loops stabilisieren ein System. Der Thermostat ist das Standardbeispiel: Zu warm → Heizung aus → kühler → Heizung an. Im ML-Training: Der Loss-Wert gibt dem Modell Feedback, wie falsch seine Vorhersagen sind — das Modell korrigiert sich.

Im Reinforcement Learning ist die Feedback Loop explizit: Agent → Aktion → Umgebung → Belohnung → Agent lernt → bessere Aktion. RLHF (Reinforcement Learning from Human Feedback) ist eine gesteuerte Feedback Loop: Menschen bewerten Modellantworten, das Modell lernt daraus, die Bewertungen fließen wieder ein.

Die gefährlichsten Feedback Loops sind unsichtbare: Ein KI-System in der Strafverfolgung sagt vorher, wo Verbrechen wahrscheinlich sind. Mehr Polizei wird dorthin geschickt. Mehr Verhaftungen werden gemacht (weil mehr Polizei → mehr Entdeckungen). Die Daten „bestätigen" die Vorhersage. Das Modell verstärkt bestehende Policing-Muster, statt Kriminalität objektiv vorherzusagen.

Learning
🔗 Link kopiert!