Blue Team
Das Blue Team ist in der Cybersecurity die Verteidigungsseite — das Team, das Systeme schützt, Angriffe erkennt und auf Sicherheitsvorfälle reagiert. Im KI-Kontext erweitert sich die Bedeutung auf die systematische Absicherung von KI-Systemen.
Die Metapher stammt aus militärischen Übungen: Red Team (Angreifer) vs. Blue Team (Verteidiger). In der KI-Sicherheit: Das Red Team sucht aktiv nach Schwachstellen — Jailbreaks, Prompt Injection, adversariale Beispiele, Bias, Halluzinationen. Das Blue Team implementiert Gegenmaßnahmen: Content Filter, Safety Guardrails, Input-Validierung, Monitoring und Incident Response.
OpenAI, Anthropic, Google und Meta setzen interne und externe Red Teams ein, bevor neue Modelle veröffentlicht werden. Das Blue Team setzt die Erkenntnisse um: Modell-Feintuning auf identifizierte Schwachstellen, System-Prompt-Hardening, Implementierung von Rate Limits und Missbrauchserkennung.
In der Enterprise-KI: Das Blue Team überwacht produktive KI-Systeme auf Data Drift, Performance-Degradation, unerwartetes Verhalten und Sicherheitsvorfälle. Die Tools: Model Monitoring (Evidently AI, WhyLabs), Logging (alle Eingaben und Ausgaben für Audit), Alerting (automatische Warnung bei Anomalien).
Die zunehmende Bedeutung von KI-Blue-Teaming spiegelt sich in der Institutionalisierung: Das UK AI Safety Institute und das US AI Safety Institute fungieren als institutionelle Blue Teams für die gesamte KI-Industrie. Der EU AI Act schreibt für Hochrisiko-KI-Systeme formale Sicherheitsbewertungen vor — de facto eine Blue-Team-Pflicht.