Confusion Matrix
Die Confusion Matrix (Konfusionsmatrix) ist das grundlegende Diagnosewerkzeug für Klassifikationsmodelle — eine Tabelle, die auf einen Blick zeigt, wo das Modell richtig liegt und wo es sich „verwirrt".
Bei binärer Klassifikation hat die Matrix vier Felder. True Positives (TP): Korrekt als positiv erkannt. True Negatives (TN): Korrekt als negativ erkannt. False Positives (FP): Fälschlich als positiv klassifiziert (Typ-I-Fehler, „falscher Alarm"). False Negatives (FN): Fälschlich als negativ klassifiziert (Typ-II-Fehler, „übersehener Fall").
Aus diesen vier Werten berechnen sich die wichtigsten Metriken. Accuracy = (TP + TN) / (TP + TN + FP + FN). Precision = TP / (TP + FP) — „Von allen positiven Vorhersagen, wie viele waren richtig?" Recall = TP / (TP + FN) — „Von allen tatsächlich positiven Fällen, wie viele wurden erkannt?" F1-Score = harmonisches Mittel aus Precision und Recall.
In der Praxis sind Precision und Recall oft gegenläufig. Ein Spam-Filter mit hoher Precision filtert selten falsch (keine wichtige Mail im Spam), identifiziert aber nicht jeden Spam. Hoher Recall bedeutet: Kaum Spam kommt durch, aber auch mehr false positives.
Bei Multi-Class-Klassifikation wird die Confusion Matrix zur n×n-Matrix. Die Diagonale zeigt korrekte Vorhersagen, die Nicht-Diagonalelemente zeigen systematische Verwechslungen: Wenn das Modell regelmäßig „5" als „6" erkennt, zeigt sich das als Häufung in der entsprechenden Zelle. Diese Muster liefern direkte Hinweise auf Modellschwächen.