Edge Computing
Edge Computing verarbeitet Daten dort, wo sie entstehen — am „Rand" des Netzwerks, nahe den Sensoren und Endgeräten — statt sie zur Verarbeitung in die Cloud zu schicken. Für KI-Anwendungen, die Echtzeit-Reaktionen erfordern, ist Edge Computing unverzichtbar.
Die Motivation: Latenz. Ein selbstfahrendes Auto kann nicht 200ms auf eine Cloud-Antwort warten — in dieser Zeit legt es bei Autobahntempo 7 Meter zurück. Eine Industrieroboter-Steuerung braucht Antworten in Millisekunden. Ein Augmented-Reality-Headset muss die Bildverarbeitung in unter 20ms abschließen.
Die Hardware: Nvidia Jetson (GPU-basierte Edge-Plattform), Google Coral (TPU für Edge), Intel Neural Compute Stick, Apple Neural Engine, Qualcomm NPU. Gemeinsam: Spezialisierte KI-Beschleuniger in kleinem Formfaktor, optimiert für Inferenz, nicht Training.
Die Herausforderung: Modelle müssen für Edge-Hardware optimiert werden. Quantisierung (32-bit → 8-bit → 4-bit) reduziert den Speicherbedarf und beschleunigt die Inferenz. Pruning entfernt unwichtige Verbindungen. Knowledge Distillation trainiert ein kleineres „Schüler"-Modell, das das Verhalten eines großen „Lehrer"-Modells imitiert.
Edge AI kombiniert die Vorteile: Niedrige Latenz (lokale Verarbeitung), Privatsphäre (Daten verlassen das Gerät nicht), Offline-Fähigkeit (funktioniert ohne Internetverbindung) und reduzierter Bandbreitenbedarf (nur relevante Ergebnisse werden übertragen). Die Herausforderung: begrenzte Rechenleistung und Speicher, Energieeffizienz, Over-the-Air-Modellaktualisierungen.