Fairness
Fairness in der KI fragt, ob ein Modell verschiedene Gruppen (Geschlecht, Ethnizität, Alter, Herkunft) systematisch unterschiedlich behandelt — und wenn ja, ob diese Unterschiede gerechtfertigt sind.
Das Problem klingt einfach, ist aber mathematisch komplex. Es existieren Dutzende formale Fairness-Definitionen, die einander teilweise widersprechen. Demographic Parity verlangt, dass das Modell gleiche Anteile positiver Vorhersagen für alle Gruppen liefert. Equalized Odds verlangt gleiche True-Positive- und False-Positive-Raten. Individual Fairness verlangt, dass ähnliche Individuen ähnliche Ergebnisse erhalten.
Chouldechova (2017) und Kleinberg et al. (2016) bewiesen mathematisch, dass bestimmte Fairness-Definitionen nicht gleichzeitig erfüllt werden können — ein fundamentales Unmöglichkeitstheorem. Die Wahl der Fairness-Definition ist keine technische, sondern eine ethische und politische Entscheidung.
Prominente Fälle haben die Debatte befeuert. COMPAS (ein Rückfall-Vorhersagesystem für US-Gerichte) bewertete schwarze Angeklagte systematisch als rückfallgefährdeter (ProPublica, 2016). Amazons internes Bewerbungstool diskriminierte Frauen. Apples Kreditkarte bot Frauen niedrigere Kreditlimits als gleich qualifizierten Männern.
Technische Maßnahmen: Pre-Processing (Trainingsdaten entzerren), In-Processing (Fairness-Constraints im Training), Post-Processing (Schwellenwerte gruppenspezifisch anpassen). Tools: IBMs AI Fairness 360, Googles What-If Tool, Microsofts Fairlearn.
Die gesellschaftliche Debatte ist offen: Soll KI die bestehende Welt abbilden (historische Muster reproduzieren) oder eine gerechtere Welt anstreben (aktiv korrigieren)?