Zum Inhalt springen KI-Lexikon — Die KI Woche
Aktuelle Beiträge
Lade Beiträge…
📰 Alle Beiträge 📬 Newsletter
Phänomen

DeepFake

Deepfakes sind synthetische Medien, bei denen eine Person in einem bestehenden Bild, Video oder Audio durch eine andere Person ersetzt wird — oder eine Person in einer Situation dargestellt wird, die nie stattgefunden hat.

Der Begriff entstand 2017 auf Reddit, als ein anonymer Nutzer unter dem Namen „deepfakes" Face-Swapping-Software veröffentlichte, die Gesichter von Prominenten in Pornografie einfügte. Die zugrunde liegende Technologie — Autoencoder und GANs — war nicht neu, aber die Zugänglichkeit der Tools senkte die technische Hürde dramatisch.

Die technische Entwicklung ist rasant. 2017 waren Deepfakes bei genauer Betrachtung erkennbar: asymmetrisches Blinzeln, verschwommene Übergänge, Artefakte. Aktuelle Systeme erzeugen Videos, die selbst Experten täuschen. Stimmen-Deepfakes benötigen nur noch wenige Sekunden Original-Audio für eine überzeugende Klonung.

Die gesellschaftlichen Auswirkungen sind tiefgreifend. Desinformation: Gefälschte Videos von Politikern, Geschäftsleuten oder Militärs. Betrug: Voice-Deepfakes für CEO-Fraud (Vortäuschen eines Anrufs vom Vorgesetzten). Missbrauch: Nicht-konsensuale intime Bilder, die überproportional Frauen betreffen. Vertrauenserosion: Wenn jedes Video potenziell gefälscht sein kann, wird auch echtes Material angezweifelt (die „Liar's Dividend").

Gegenmaßnahmen: C2PA (Coalition for Content Provenance and Authenticity) entwickelt Standards für Content-Signierung. KI-basierte Detektoren existieren, verlieren aber das Wettrüsten zunehmend. Der EU AI Act verlangt die Kennzeichnung synthetischer Medien.

Media Ethics
🔗 Link kopiert!