Echo Chamber
Echo Chamber (Echokammer) bezeichnet den Effekt, dass Menschen in digitalen Umgebungen primär Meinungen und Informationen ausgesetzt werden, die ihre bestehenden Überzeugungen bestätigen — verstärkt durch KI-gesteuerte Empfehlungsalgorithmen.
Der Mechanismus: Social-Media-Algorithmen optimieren auf Engagement — Klicks, Likes, Verweildauer, Shares. Inhalte, die starke Emotionen auslösen und bestehende Überzeugungen bestätigen, generieren mehr Engagement als nuancierte, ausgewogene Darstellungen. Das Ergebnis: Der Algorithmus zeigt jedem Nutzer eine Version der Realität, die seine Vorurteile bestätigt.
Die Forschungslage ist differenzierter als die öffentliche Debatte. Studien zeigen, dass Echokammern existieren, aber nicht so hermetisch sind, wie befürchtet. Die meisten Menschen sind über Plattformen hinweg diversen Meinungen ausgesetzt. Das Problem ist weniger die Filter-Bubble (nicht genug Diversität) als die Attention Economy (extreme Positionen bekommen überproportionale Aufmerksamkeit).
KI-basierte Empfehlungssysteme stehen im Zentrum der Kritik. YouTubes Algorithmus empfahl laut interner Studie Inhalte, die Nutzer zu immer extremeren Positionen führten. Facebook/Meta veränderte nach internen Enthüllungen (Frances Haugen, 2021) die Ranking-Algorithmen, um weniger polarisierende Inhalte zu bevorzugen.
Die Gegenmaßnahmen: Algorithmische Transparenz (was zeigt mir der Algorithmus und warum?), Diversity-Constraints in Empfehlungssystemen (bewusst andere Perspektiven einblenden) und regulatorische Anforderungen (der EU Digital Services Act fordert Transparenz bei algorithmischem Ranking).