Zum Inhalt springen KI-Lexikon — Die KI Woche
Aktuelle Beiträge
Lade Beiträge…
📰 Alle Beiträge 📬 Newsletter
Statistik

Gaussian

Die Gausssche Verteilung (Normalverteilung, Glockenkurve) ist die wichtigste Wahrscheinlichkeitsverteilung in der Statistik und im Machine Learning — benannt nach Carl Friedrich Gauß, der sie 1809 formalisierte.

Die Formel: f(x) = (1/√(2πσ²)) × e^(-(x-μ)²/(2σ²)), definiert durch zwei Parameter: Mittelwert μ (Zentrum) und Standardabweichung σ (Breite). 68% der Werte liegen innerhalb einer Standardabweichung, 95% innerhalb zweier, 99,7% innerhalb dreier (die „68-95-99,7-Regel").

Im ML ist die Normalverteilung allgegenwärtig. Gewichtsinitialisierung: Xavier- und He-Initialisierung ziehen die Anfangsgewichte aus skalierten Normalverteilungen. Regularisierung: Die L2-Regularisierung entspricht der Annahme einer Gauß-Prior über die Gewichte (Bayessche Interpretation). Variational Autoencoders: Der Latent Space wird als Normalverteilung modelliert. Diffusionsmodelle: Der Rauschprozess addiert schrittweise Gauß-Rauschen zum Bild.

In der Bayesschen Statistik: Gaussian Processes (GPs) definieren eine Verteilung über Funktionen und liefern Vorhersagen mit Konfidenzintervallen — besonders wertvoll, wenn Unsicherheit quantifiziert werden muss (Hyperparameter-Optimierung, medizinische Entscheidungen).

Der Zentrale Grenzwertsatz erklärt die Allgegenwärtigkeit: Die Summe vieler unabhängiger Zufallsvariablen konvergiert immer gegen eine Normalverteilung — unabhängig von der Verteilung der Einzelvariablen. Deshalb treten Gauß-Verteilungen so häufig in der Natur und in Daten auf.

Normal
🔗 Link kopiert!