Encryption
Encryption (Verschlüsselung) wandelt Daten in eine unlesbare Form um, die nur mit dem richtigen Schlüssel wiederhergestellt werden kann. Im KI-Zeitalter gewinnt die Verschlüsselung neue Dimensionen — sowohl als Schutzmechanismus als auch als technische Herausforderung.
Für KI-Systeme ist Verschlüsselung in mehreren Schichten relevant. Data at Rest: Trainingsdaten und Modellgewichte werden verschlüsselt gespeichert. Data in Transit: API-Kommunikation zwischen Client und Modell läuft über TLS/HTTPS. Data in Use: Die größte Herausforderung — wie schützt man Daten, während sie aktiv verarbeitet werden?
Homomorphe Verschlüsselung (FHE — Fully Homomorphic Encryption) ermöglicht Berechnungen auf verschlüsselten Daten, ohne sie zu entschlüsseln. Ein Client könnte eine verschlüsselte Anfrage an ein Cloud-Modell senden, das die Berechnung durchführt und eine verschlüsselte Antwort zurückgibt — ohne jemals die Klartextdaten zu sehen. Craig Gentry (IBM, 2009) bewies die theoretische Machbarkeit, aber der Performance-Overhead ist noch zu hoch für produktiven LLM-Einsatz.
Differential Privacy — kein Verschlüsselungsverfahren im strengen Sinne, aber ein mathematisches Privacy-Framework — garantiert, dass aus den Modellausgaben nicht auf einzelne Trainingsdatenpunkte geschlossen werden kann. Apple und Google nutzen Differential Privacy in ihren Telemetrie-Systemen.
Die Sicherheit von Verschlüsselung selbst könnte durch Quantencomputer bedroht werden: Shors Algorithmus kann RSA-Verschlüsselung theoretisch brechen. Post-Quantum-Kryptografie (NIST standardisierte 2024 die ersten Algorithmen) bereitet sich auf diese Bedrohung vor — auch für den Schutz von KI-Systemen.