Algorithmic Bias
Algorithmic Bias — systematische Verzerrungen in KI-Systemen — ist eines der drängendsten Probleme der angewandten KI. Die Ursache liegt fast nie in böswilliger Absicht, sondern in den Daten, auf denen das System trainiert wurde, und den Entscheidungen, die bei der Modellentwicklung getroffen werden.
Drei Typen von Bias treten besonders häufig auf. Erstens: Historischer Bias. Die Trainingsdaten spiegeln vergangene gesellschaftliche Ungleichheiten wider. Amazon baute 2018 ein Bewerbungstool, das Frauen systematisch benachteiligte, weil die historischen Einstellungsdaten eine männerdominierte Belegschaft widerspiegelten. Das Modell lernte: „Frau" = negativer Indikator.
Zweitens: Representational Bias. Bestimmte Gruppen sind in den Trainingsdaten unterrepräsentiert. Gesichtserkennungssysteme von IBM und Microsoft zeigten 2018 (dokumentiert von Joy Buolamwini und Timnit Gebru im „Gender Shades"-Projekt) Fehlerquoten von unter 1 Prozent bei weißen Männern — aber über 34 Prozent bei dunkelhäutigen Frauen.
Drittens: Measurement Bias. Die gewählte Metrik misst nicht, was sie messen soll. Ein Kreditscoring-Modell nutzt die Postleitzahl als Feature — erfasst damit aber de facto die ethnische Zusammensetzung des Wohnviertels (Proxy-Variable).
Gegenmaßnahmen umfassen Fairness-Audits, diverse Entwicklungsteams und technische Tools wie IBMs AI Fairness 360 oder Googles What-If Tool. Der EU AI Act schreibt für Hochrisiko-KI explizit die Überprüfung auf Bias vor.