Diversity
Diversity (Diversität) im KI-Kontext hat zwei Bedeutungen: die Diversität der Teams, die KI-Systeme entwickeln, und die Diversität der Daten und Perspektiven, die in die Systeme einfließen. Beide sind entscheidend für faire, robuste und nützliche KI.
Team-Diversität: Die KI-Branche hat ein Diversitätsproblem. Laut AI Index Report (Stanford, 2023) sind nur etwa 20% der KI-Forscher Frauen. Die ethnische Diversität ist noch geringer. Timnit Gebru — eine der prominentesten Stimmen für Diversität in der KI — wurde 2020 von Google entlassen, nachdem sie ein Paper über die Risiken großer Sprachmodelle veröffentlicht hatte. Ihr Argument: Homogene Teams entwickeln Systeme, die die Perspektiven unterrepräsentierter Gruppen nicht berücksichtigen.
Daten-Diversität: Ein Modell, das überwiegend auf englischsprachigen, westlichen Daten trainiert wird, funktioniert für andere Sprachen und Kulturen schlechter. ImageNet enthielt überproportional Bilder aus dem angelsächsischen Kontext. LLMs reproduzieren die Verzerrungen ihrer Trainingsdaten.
Diversity in Ensemble Learning: Verschiedenartigkeit der Einzelmodelle ist das mathematische Fundament, warum Ensembles funktionieren. Je diverser die Fehler der Einzelmodelle, desto besser das Ensemble. Das überträgt sich auf Teams: Diverse Perspektiven erkennen Probleme, die homogene Teams übersehen.
Die praktische Implikation: Diversity ist kein Soft Skill und kein PR-Thema — es ist eine Voraussetzung für robuste, faire Systeme, die für alle Menschen funktionieren.