Zum Inhalt springen KI-Lexikon — Die KI Woche
Aktuelle Beiträge
Lade Beiträge…
📰 Alle Beiträge 📬 Newsletter
Metrik

Accuracy

Accuracy (Genauigkeit) ist eine der intuitivsten und am häufigsten verwendeten Metriken zur Bewertung der Leistung von Klassifikationsmodellen im maschinellen Lernen. Mathematisch definiert ist sie der Quotient aus der Anzahl der korrekten Vorhersagen (True Positives + True Negatives) geteilt durch die Gesamtzahl aller Vorhersagen. Sie gibt also schlicht an, wie viel Prozent der Entscheidungen des Modells 'richtig' waren.

Trotz ihrer Beliebtheit ist Accuracy jedoch mit Vorsicht zu genießen und kann in vielen realen Szenarien irreführend sein, insbesondere beim sogenannten 'Accuracy Paradox'. Wenn ein Datensatz stark unausgewogen ist (Class Imbalance) – beispielsweise wenn bei einer Betrugserkennung nur 0,1% aller Transaktionen betrügerisch sind –, kann ein triviales Modell, das einfach *immer* 'kein Betrug' vorhersagt, eine Accuracy von 99,9% erreichen. Dieses Modell wäre zwar statistisch extrem 'genau', aber für den Anwendungszweck völlig nutzlos, da es keinen einzigen Betrugsfall erkennt.

Aus diesem Grund sollte Accuracy selten als alleinige Metrik verwendet werden. In professionellen Anwendungen wird sie fast immer durch differenziertere Metriken wie Precision (Genauigkeit der positiven Vorhersagen), Recall (Trefferquote), den F1-Score (harmonisches Mittel aus Precision und Recall) oder die ROC-AUC-Kurve ergänzt, um ein vollständiges Bild der Modellqualität zu erhalten.

Evaluation Statistics
🔗 Link kopiert!