Zum Inhalt springen KI-Lexikon — Die KI Woche
Aktuelle Beiträge
Lade Beiträge…
📰 Alle Beiträge 📬 Newsletter
Fehler

False Positive

Ein False Positive (falsch positiv) tritt auf, wenn ein Modell fälschlicherweise ein positives Ergebnis vorhersagt — ein Typ-I-Fehler, der „falscher Alarm".

Im Alltag: Der Diebstahlalarm im Kaufhaus piept, obwohl man bezahlt hat. Der COVID-Schnelltest zeigt positiv, obwohl man gesund ist. Der Spam-Filter verschiebt eine wichtige E-Mail in den Spam-Ordner.

In der KI: Ein Betrugserkenungssystem blockiert eine legitime Kreditkartentransaktion. Ein Content-Filter löscht einen harmlosen Social-Media-Post. Ein Gesichtserkennungssystem identifiziert fälschlicherweise eine Person als Verdächtigen.

Die Kosten von False Positives variieren enorm nach Kontext. Im E-Commerce: Ein fälschlich blockierter Kauf verärgert den Kunden und kostet Umsatz. In der Justiz: Eine fälschliche Identifikation durch Gesichtserkennung kann zu einer Verhaftung führen — Robert Williams wurde 2020 in Detroit aufgrund eines Gesichtserkennungsfehlers verhaftet.

Precision = TP / (TP + FP) misst direkt, wie viele der positiven Vorhersagen korrekt sind. Hohe Precision = wenige False Positives. In Systemen, wo False Positives besonders teuer sind (Spam-Filter: keine wichtige Mail löschen; Strafverfolgung: keine Unschuldigen verdächtigen), optimiert man auf Precision.

Der Tradeoff: Weniger False Positives (höhere Precision) bedeutet typischerweise mehr False Negatives (niedrigerer Recall). Die optimale Balance ist aufgabenspezifisch und erfordert eine bewusste Entscheidung über die relativen Kosten beider Fehlerarten.

Statistics
🔗 Link kopiert!