Aktuelle Beiträge
Lade Beiträge…
📰 Alle Beiträge 📬 Newsletter
Architektur

ANN (Artificial Neural Network)

Ein Artificial Neural Network (ANN) — zu Deutsch: Künstliches Neuronales Netz — ist die mathematische Grundstruktur, auf der praktisch alle modernen KI-Erfolge aufbauen. Von Bilderkennung über Sprachmodelle bis zu AlphaGo: Im Kern steckt immer ein neuronales Netz.

Die Idee stammt aus den 1940er Jahren. Warren McCulloch und Walter Pitts modellierten 1943 erstmals ein mathematisches Neuron. Frank Rosenblatt baute 1957 das Perceptron — ein einzelnes künstliches Neuron, das lernen konnte, einfache Muster zu erkennen. Marvin Minsky und Seymour Papert zeigten 1969, dass ein einzelnes Perceptron nur linear trennbare Probleme lösen kann, was die Forschung für Jahre lähmte.

Die Lösung: mehrschichtige Netze. Ein ANN besteht aus einer Eingabeschicht, einer oder mehreren verdeckten Schichten (Hidden Layers) und einer Ausgabeschicht. Jedes Neuron empfängt gewichtete Eingaben, summiert sie auf und leitet das Ergebnis durch eine Aktivierungsfunktion (z.B. ReLU oder Sigmoid). Durch Backpropagation — das systematische Rückwärts-Rechnen des Fehlers — werden die Gewichte schrittweise angepasst.

„Deep Learning" ist nichts anderes als die Verwendung von ANNs mit vielen Schichten. GPT-4 hat nach Schätzungen über hundert Milliarden Parameter — jeder Parameter ist ein Gewicht in einem solchen Netz. Die biologische Inspiration ist dabei längst eher Metapher als Blaupause: Echte Neuronen arbeiten fundamental anders als ihre mathematischen Namensvetter.

Basics