Zum Inhalt springen KI-Lexikon — Die KI Woche
Aktuelle Beiträge
Lade Beiträge…
📰 Alle Beiträge 📬 Newsletter
Infrastruktur

Cloud Computing

Cloud Computing — die Bereitstellung von Rechenleistung, Speicher und Software über das Internet — ist die Infrastruktur-Grundlage der modernen KI. Ohne Cloud-GPU-Cluster wäre die aktuelle KI-Revolution nicht möglich.

Die drei Servicemodelle: IaaS (Infrastructure as a Service) — virtuelle Maschinen, GPUs, Storage. AWS EC2, Azure VMs, GCP Compute Engine. PaaS (Platform as a Service) — Entwicklungsplattformen mit integrierten ML-Tools. AWS SageMaker, GCP Vertex AI, Azure ML. SaaS (Software as a Service) — fertige KI-Anwendungen über den Browser. ChatGPT, Claude, Gemini.

Die drei Hyperscaler dominieren: AWS (32% Marktanteil), Azure (23%), GCP (12%). Für KI-Workloads hat Azure durch die OpenAI-Partnerschaft einen strategischen Vorteil. GCP bietet exklusiven Zugang zu TPUs. AWS hat das breiteste Service-Portfolio.

Die KI-spezifischen Cloud-Services: GPU-Instanzen (Nvidia A100, H100 on-demand), TPU-Zugang (Google), Managed ML-Pipelines, AutoML, fertige Vision/Speech/NLP-APIs, Fine-Tuning-Services für Foundation Models.

Die Kosten sind erheblich. Eine H100-GPU-Instanz kostet ca. 3-5 Dollar pro Stunde. Ein Training-Run über mehrere Wochen mit Hunderten GPUs summiert sich auf sechsstellige Beträge. Die Frage „Cloud vs. On-Premise" ist deshalb strategisch: Cloud bietet Flexibilität, On-Premise bietet Kontrolle und langfristig niedrigere Kosten bei konstanter Auslastung.

Für europäische Unternehmen kommen Datenschutz-Anforderungen hinzu: DSGVO, Schrems-II, Datensouveränität. Europäische Cloud-Alternativen (IONOS, Hetzner, OVHcloud, Open Telekom Cloud) gewinnen an Bedeutung.

Hardware Scale
🔗 Link kopiert!