Error
Error (Fehler) im Machine Learning bezeichnet die Diskrepanz zwischen der Vorhersage des Modells und dem tatsächlichen Wert — das zentrale Signal, aus dem ein Modell lernt.
Die fundamentale Zerlegung: Total Error = Bias² + Variance + Irreducible Error. Bias: systematische Abweichung von der Wahrheit (Modell ist zu einfach). Variance: Empfindlichkeit gegenüber den Trainingsdaten (Modell ist zu komplex). Irreducible Error: Rauschen in den Daten, das kein Modell reduzieren kann.
Training Error vs. Test Error: Wenn der Trainingsfehler niedrig ist, aber der Testfehler hoch, overfittet das Modell. Wenn beide hoch sind, underfittet es. Die Kunst liegt darin, den Sweet Spot zu finden — ein Modell, das komplexgnug ist, die Muster zu lernen, aber nicht so komplex, dass es Rauschen memorisiert.
Error-Analyse ist der unterschätzte Schritt im ML-Workflow. Statt nur den Gesamtfehler zu betrachten, analysiert man systematisch: Auf welchen Untergruppen ist der Fehler besonders hoch? Gibt es bestimmte Eingabemuster, die das Modell konsistent falsch vorhersagt? Sind die Fehler zufällig oder systematisch?
Andrew Ng empfiehlt die manuelle Durchsicht von ca. 100 Fehlerfällen als erste Analysemethode — oft reicht das, um das Hauptproblem zu identifizieren: fehlende Features, unzureichende Daten, falsches Label-Schema oder ein Bug in der Pipeline.
In LLMs manifestieren sich Fehler als Halluzinationen, fakutelle Ungenauigkeiten oder logische Inkonsistenzen — schwerer zu quantifizieren, aber ebenso systematisch analysierbar.