Zum Inhalt springen KI-Lexikon — Die KI Woche
Aktuelle Beiträge
Lade Beiträge…
📰 Alle Beiträge 📬 Newsletter
Infrastruktur

Edge Computing

Edge Computing verarbeitet Daten dort, wo sie entstehen — am „Rand" des Netzwerks, nahe den Sensoren und Endgeräten — statt sie zur Verarbeitung in die Cloud zu schicken. Für KI-Anwendungen, die Echtzeit-Reaktionen erfordern, ist Edge Computing unverzichtbar.

Die Motivation: Latenz. Ein selbstfahrendes Auto kann nicht 200ms auf eine Cloud-Antwort warten — in dieser Zeit legt es bei Autobahntempo 7 Meter zurück. Eine Industrieroboter-Steuerung braucht Antworten in Millisekunden. Ein Augmented-Reality-Headset muss die Bildverarbeitung in unter 20ms abschließen.

Die Hardware: Nvidia Jetson (GPU-basierte Edge-Plattform), Google Coral (TPU für Edge), Intel Neural Compute Stick, Apple Neural Engine, Qualcomm NPU. Gemeinsam: Spezialisierte KI-Beschleuniger in kleinem Formfaktor, optimiert für Inferenz, nicht Training.

Die Herausforderung: Modelle müssen für Edge-Hardware optimiert werden. Quantisierung (32-bit → 8-bit → 4-bit) reduziert den Speicherbedarf und beschleunigt die Inferenz. Pruning entfernt unwichtige Verbindungen. Knowledge Distillation trainiert ein kleineres „Schüler"-Modell, das das Verhalten eines großen „Lehrer"-Modells imitiert.

Edge AI kombiniert die Vorteile: Niedrige Latenz (lokale Verarbeitung), Privatsphäre (Daten verlassen das Gerät nicht), Offline-Fähigkeit (funktioniert ohne Internetverbindung) und reduzierter Bandbreitenbedarf (nur relevante Ergebnisse werden übertragen). Die Herausforderung: begrenzte Rechenleistung und Speicher, Energieeffizienz, Over-the-Air-Modellaktualisierungen.

Local
🔗 Link kopiert!