Analog AI
Analog AI verfolgt einen radikal anderen Ansatz als herkömmliche Chips: Statt mit diskreten Nullen und Einsen zu rechnen, nutzt sie kontinuierliche physikalische Signale — Spannung, Strom, Widerstand —, um neuronale Netze direkt in der Hardware abzubilden.
Der Reiz liegt in der Energieeffizienz. Neuronale Netze bestehen im Kern aus massenhaften Multiplikationen und Additionen (Matrix-Vektor-Operationen). Auf einem digitalen Chip müssen diese Operationen Schritt für Schritt berechnet werden. In analoger Hardware geschehen sie durch die Physik selbst: Das Ohmsche Gesetz (U = R × I) führt die Multiplikation „kostenlos" durch, Kirchhoffs Knotenregel erledigt die Summation.
IBM Research demonstrierte 2023 einen analogen Chip mit 35 Millionen Phase-Change-Memory-Zellen, der bei Spracherkennungsaufgaben 14-mal energieeffizienter arbeitete als vergleichbare digitale Lösungen. Startups wie Mythic und Syntiant bauen analoge Inferenz-Chips für Edge-Geräte — Geräte also, die ohne Cloud-Anbindung KI ausführen müssen.
Die Herausforderung: Analoge Hardware ist inhärent ungenau. Temperaturänderungen, Fertigungstoleranzen und Alterungseffekte verursachen Rauschen, das die Berechnungen verfälscht. Für Trainingsaufgaben, die hohe Präzision erfordern, bleibt digitale Hardware vorerst unersetzlich. Die Zukunft liegt vermutlich in hybriden Architekturen — digital trainieren, analog ausführen.