Zum Inhalt springen KI-Lexikon — Die KI Woche
Aktuelle Beiträge
Lade Beiträge…
📰 Alle Beiträge 📬 Newsletter
Sicherheit

Backdoor

Eine Backdoor (Hintertür) in einem KI-Modell ist eine versteckte, böswillige Funktionalität, die oft durch sogenannte 'Data Poisoning'-Angriffe während der Trainingsphase eingeschleust wird. Dabei manipuliert ein Angreifer einen kleinen Teil der Trainingsdaten so, dass das Modell im normalen Betrieb völlig unauffällig und korrekt funktioniert (z.B. erkennt es Verkehrsschilder zu 99% richtig). Sobald jedoch ein spezifischer Auslöser (Trigger) im Input vorhanden ist – etwa ein kleiner gelber Aufkleber auf einem Stoppschild –, ändert das Modell schlagartig sein Verhalten und klassifiziert das Stoppschild beispielsweise als 'Freie Fahrt 100'.

Solche Angriffe sind extrem schwer zu entdecken, da herkömmliche Validierungstests den Trigger nicht enthalten und somit keine Anomalie zeigen. Backdoors stellen eine massive Bedrohung für sicherheitskritische Systeme (Militär, autonomes Fahren, Finanzwesen) dar. Die Abwehr solcher Angriffe erfordert strenge Kontrolle der Trainingsdaten-Supply-Chain ('Data Provenance') und spezialisierte Methoden zur Modellprüfung ('Red Teaming'), die versuchen, solche versteckten Auslöser zu finden.

Attack
🔗 Link kopiert!