Disinformation
Disinformation — die absichtliche Verbreitung falscher Informationen — wird durch generative KI dramatisch skalierbar. LLMs können Desinformationskampagnen in industriellem Maßstab produzieren: personalisierte Fake News, glaubwürdige aber fiktive Quellenangaben, emotional manipulative Texte in Hunderten Sprachen.
Die Unterscheidung ist wichtig: Misinformation ist falsche Information, die versehentlich geteilt wird. Disinformation ist falsche Information, die absichtlich erstellt und verbreitet wird, um zu täuschen, zu manipulieren oder zu destabilisieren. Malinformation ist wahre Information, die absichtlich aus dem Kontext gerissen oder zum Schaden eingesetzt wird.
KI-gestützte Disinformation nimmt mehrere Formen an. Textuelle: LLMs erzeugen überzeugende Falschmeldungen, gefälschte Augenzeugenberichte oder pseudowissenschaftliche Studien. Visuelle: DALL-E und Midjourney generieren fotorealistisch wirkende Bilder von Ereignissen, die nie stattfanden. Audio: Stimmen-Deepfakes simulieren Politiker oder Führungskräfte. Video: Face-Swapping und Lip-Syncing erzeugen gefälschte Reden.
Die Abwehr wird zunehmend schwieriger. KI-generierte Texte sind sprachlich nicht von menschlichen Texten unterscheidbar. Wasserzeichentechniken (von OpenAI, Google und Anthropic vorgeschlagen) werden umgangen, sobald der Text paraphrasiert wird.
Die gesellschaftliche Konsequenz: die Erosion des epistemischen Vertrauens. Wenn jeder Text, jedes Bild, jedes Video potenziell gefälscht sein kann, wird selbst echtes Material angezweifelt. Dieses Phänomen — die „Liar's Dividend" — ist möglicherweise gefährlicher als die Deepfakes selbst.