Zum Inhalt springen KI-Lexikon — Die KI Woche
Aktuelle Beiträge
Lade Beiträge…
📰 Alle Beiträge 📬 Newsletter
Mathematik

Eigenvalue

Eigenvalues (Eigenwerte) und Eigenvectors (Eigenvektoren) sind fundamentale Konzepte der linearen Algebra, die in der Dimensionsreduktion, Signalverarbeitung und statistischen Analyse eine zentrale Rolle spielen.

Die Definition: Für eine Matrix A ist ein Vektor v ein Eigenvektor, wenn A×v = λ×v — die Matrix A verändert den Vektor v nur in seiner Länge (um den Faktor λ, den Eigenwert), nicht in seiner Richtung.

In PCA (Principal Component Analysis), der meistgenutzten Dimensionsreduktionsmethode, sind die Eigenvektoren der Kovarianzmatrix die Hauptachsen der Datenvariation. Der größte Eigenwert gibt die Achse an, entlang der die Daten am meisten variieren. Der zweitgrößte die zweitwichtigste Achse, orthogonal zur ersten. Die Eigenwerte geben an, wie viel Varianz jede Achse erklärt.

Im Machine Learning: Spektrale Clustering-Methoden berechnen Eigenvektoren der Laplace-Matrix eines Graphen, um natürliche Gruppierungen zu finden. Google's PageRank ist ein Eigenwert-Problem: Die relative Wichtigkeit einer Webseite ist der dominante Eigenvektor der Link-Matrix des Internets.

In der Stabilität neuronaler Netze: Die Eigenwerte der Gewichtsmatrizen bestimmen, ob Gradienten beim Backpropagation explodieren (|λ| > 1) oder verschwinden (|λ| < 1). Orthogonale Initialisierung setzt alle Eigenwerte auf 1 — ein Stabilisierungstrick.

Die numerische Berechnung von Eigenwerten (QR-Algorithmus, Lanczos-Methode) ist eines der am besten erforschten Probleme der numerischen Mathematik — die Grundlage zahlloser Anwendungen in Physik, Ingenieurwesen und KI.

Linear Algebra
🔗 Link kopiert!