Predictive Policing — die KI-gestützte Vorhersage von Kriminalitäts-Hotspots — ist in Deutschland und Europa hochumstritten. Während die USA, Großbritannien und Israel diese Technologie aktiv einsetzen, hat Deutschland sie nach Pilotprojekten in Bayern und Nordrhein-Westfalen weitgehend eingestellt.
Die Technologie: Algorithmen analysieren historische Verbrechensdaten, Wetterdaten, Veranstaltungskalender und sozioökonomische Faktoren, um vorherzusagen, in welchen Straßen und zu welchen Zeiten die Wahrscheinlichkeit für bestimmte Delikte am höchsten ist. Streifenwagen werden entsprechend disponiert.
Die Probleme: Historische Verbrechensdaten reflektieren historische Polizeipraxis — Stadtteile mit höherer Polizeipräsenz haben höhere Kriminalitätsstatistiken, nicht notwendig höhere tatsächliche Kriminalität. Der Algorithmus perpetuiert diesen Bias: Mehr Polizei in benachteiligten Vierteln → mehr registrierte Delikte → noch mehr Polizei. Ein Teufelskreis der algorithmischen Diskriminierung.
Der AI Act klassifiziert KI in der Strafverfolgung als Hochrisiko-Anwendung. Biometrische Echtzeit-Überwachung im öffentlichen Raum ist grundsätzlich verboten (mit engen Ausnahmen für schwere Straftaten). Predictive Policing ist erlaubt, unterliegt aber strengen Anforderungen an Transparenz, Bias-Testing und menschliche Aufsicht.
Ethik vs. Effizienz
Die Debatte um Predictive Policing ist eine der schärfsten im KI-Diskurs. Befürworter argumentieren mit Effizienzgewinnen: In Los Angeles sank die Einbruchsrate in Pilotgebieten um 13%. Kritiker verweisen auf die inhärente Bias-Problematik: Die Trainingsdaten spiegeln historische Polizeiarbeit wider — und damit systematische Diskriminierung bestimmter Bevölkerungsgruppen.
Die europäische Position ist zunehmend klar: Der EU AI Act klassifiziert Predictive Policing als Hochrisiko-KI-System und verbietet prädiktive Methoden, die allein auf soziodemografischen Merkmalen basieren (Artikel 5). Deutschland geht weiter: Das BKA darf KI-gestützte Analysen nur mit richterlicher Genehmigung und unter Aufsicht eines Datenschutzbeauftragten durchführen. Die Frage, ob KI die Polizeiarbeit fairer oder unfairer macht, bleibt offen.
Quellen:
- OECD AI Policy Observatory
- Stanford HAI: AI Index Report 2024
📊 Einordnung
Predictive Policing zeigt das Kernproblem algorithmischer Entscheidungssysteme: Historische Daten als Grundlage für zukünftige Entscheidungen perpetuieren historische Ungerechtigkeiten. Die Lösung liegt nicht in besseren Algorithmen, sondern in der kritischen Hinterfragung, ob bestimmte Entscheidungen überhaupt algorithmisiert werden sollten.
🎯 Was bedeutet das konkret?
Für Kommunen und Polizeibehörden: Wenn Sie Predictive Policing evaluieren, stellen Sie sicher, dass der AI Act eingehalten wird — Bias-Testing, Transparenz und menschliche Letztentscheidung sind Pflicht. Und hinterfragen Sie die Datenbasis: Reflektieren die historischen Daten die Kriminalitätsrealität oder die Polizeipraxis?