Wer ChatGPT um eine Einschätzung zu einem Politiker bittet, denkt, er recherchiere. In Wirklichkeit konsumiert er eine der wirksamsten Formen politischer Überzeugungsarbeit, die es gibt — wirksamer als professionelle Wahlkampfwerbung. Das zeigt eine neue Studie der Yale University, die soeben veröffentlicht wurde.
19.145 Teilnehmer, sieben Modelle, ein Ergebnis
Die Forscher Zhongren Chen, Joshua Kalla und Quan Le testeten sieben aktuelle KI-Modelle von Anthropic, OpenAI, Google und xAI in zwei vorreregistrierten Experimenten mit insgesamt 19.145 Teilnehmern. Das Ergebnis: Alle getesteten Modelle übertrafen professionelle Wahlkampfwerbung darin, politische Ansichten zu verschieben — und zwar über alle getesteten Themen und Positionen hinweg.
Besonders auffällig: Anthropics Claude war das überzeugendste Modell. xAIs Grok das am wenigsten überzeugende. Jedes Modell dazwischen schlug die Anzeigen, für deren Produktion Regierungen, Parteien und Kampagnen jede Wahlperiode Milliarden ausgeben.
Warum diese Studie anders ist
Frühere Forschung kam zu dem Schluss, dass Sprachmodelle in etwa so überzeugend seien wie herkömmliche Kampagnenmethoden. Dieses Ergebnis wurde zum akzeptierten Konsens — Politiker und Regulierer nutzten es als Argument, dass KI keine besondere Bedrohung für Wahlen darstelle.
Die Yale-Studie widerlegt das mit deutlich größeren Stichproben und den neuesten Frontier-Modellen. Außerdem fanden die Forscher einen überraschenden Effekt: Informationsbasierte Prompts — die in früheren Studien die Überzeugungskraft steigerten — wirkten modellabhängig. Bei Claude und Grok verstärkten sie die Wirkung, bei GPT reduzierten sie sie erheblich.
Die eigentliche Gefahr liegt im Interface
Die Forscher warnen: Weil Menschen KI-Chatbots zunehmend als neutrale Informationsquelle behandeln, kann jeder, der Kontrolle über die Antworten dieser Systeme gewinnt, eine Massenüberredungskampagne in einem Ausmaß fahren, für das kein Wahlgesetz je geschrieben wurde. Der Nutzer denkt, er stellt eine Recherchefrage — und wird dabei stärker beeinflusst als durch jede Fernsehwerbung.
🎯 Was das für die Praxis bedeutet
1. KI ist kein neutraler Berater: Wer politische Fragen an ChatGPT, Claude oder andere Chatbots stellt, sollte sich bewusst sein, dass die Antworten nachweislich meinungsbildend sind — stärker als klassische Wahlwerbung.
2. Regulierungslücke wird sichtbar: Wahlkampfgesetze erfassen bislang Anzeigen, Plakate und TV-Spots. KI-generierte Überzeugungsarbeit im Zwiegespräch fällt durch sämtliche Raster.
3. Modellunterschiede beachten: Nicht alle KI-Modelle überzeugen gleich stark. Die Wahl des Anbieters hat direkten Einfluss auf die Art der Antworten — ein Argument mehr für Transparenz bei der Modellauswahl.