Zum Inhalt springen KI-Lexikon — Die KI Woche
Aktuelle Beiträge
Lade Beiträge…
📰 Alle Beiträge 📬 Newsletter
Problem

Deep Fakes

Deepfakes sind KI-generierte oder -manipulierte Medien — Bilder, Videos oder Audio —, die Personen in Situationen zeigen, die nie stattgefunden haben. Die Technologie wurde 2017 bekannt, als ein Reddit-Nutzer unter dem Pseudonym „deepfakes" Gesichter von Prominenten in Pornografie einfügte.

Die Technologie nutzt typischerweise Autoencoders oder GANs, um ein Gesicht zu lernen und auf einen fremden Körper zu projizieren. Moderne Tools wie DeepFaceLab, FaceSwap oder Reface machen das mit minimalen technischen Kenntnissen möglich. Stimmen-Deepfakes (ElevenLabs, Respeecher) klonen eine Stimme aus wenigen Sekunden Audio.

Die Bedrohungsszenarien sind vielfältig. Politische Desinformation: Gefälschte Reden von Politikern könnten Wahlen beeinflussen. Im Ukraine-Krieg tauchte früh ein Deepfake-Video auf, in dem Präsident Selenskyj zur Kapitulation aufrief. Betrug: Ein Finanzmanager in Hongkong überwies 2024 25 Millionen Dollar, nachdem er in einer Videokonferenz mit Deepfake-Versionen seiner Kollegen gesprochen hatte. Persönlichkeitsrechte: Nicht-einvernehmliche intime Bilder treffen überproportional Frauen.

Erkennung wird zunehmend schwieriger. Frühe Deepfakes hatten Artefakte (Flimmern, asymmetrisches Blinzeln), die aktuelle Generation ist für das menschliche Auge oft nicht erkennbar. Technische Detektoren (Microsoft Video Authenticator, Intel FakeCatcher) existieren, liefern sich aber ein Wettrüsten mit den Generatoren.

Der EU AI Act klassifiziert Deepfakes als Transparenzpflicht: Nutzer müssen klar kennzeichnen, wenn Inhalte KI-generiert sind.

Media
🔗 Link kopiert!