Normalization
Normalisierung ist ein entscheidender Schritt bei der Datenvorverarbeitung (Preprocessing) für neuronale Netze. Da diese Netze mit mathematischen Operationen arbeiten, sind sie empfindlich gegenüber der Skalierung der Eingabedaten. Wenn ein Feature Werte von 0 bis 1 hat (z.B. Wahrscheinlichkeit) und ein anderes Werte von 0 bis 1.000.000 (z.B. Immobilienpreis), würde das große Feature beim Lernen dominieren und die Gradienten verzerren.
Durch Normalisierung (z.B. Skalierung auf den Bereich 0 bis 1 oder Standardisierung auf Mittelwert 0 und Standardabweichung 1) werden alle Inputs auf eine vergleichbare Größenordnung gebracht. Dies ermöglicht dem Optimierungsalgorithmus (Gradient Descent), schneller und stabiler zur Lösung zu finden.