Cloud
Cloud Computing stellt Rechenleistung, Speicher und Software über das Internet bereit — statt auf lokalen Servern. Für die KI-Industrie ist die Cloud nicht bloß Infrastruktur, sondern der zentrale Ermöglicher.
Die drei großen Anbieter — Amazon Web Services (AWS), Microsoft Azure und Google Cloud Platform (GCP) — kontrollieren etwa 65% des weltweiten Cloud-Marktes. Für KI ist die Cloud unverzichtbar, weil das Training großer Modelle Rechenressourcen erfordert, die kein einzelnes Unternehmen (außer den Hyperscalern selbst) vorhalten kann.
Die KI-spezifischen Cloud-Angebote haben sich zu einem eigenen Markt entwickelt. AWS bietet SageMaker für ML-Workflows und Trainium/Inferentia als eigene KI-Chips. Azure ist durch die OpenAI-Partnerschaft zum bevorzugten Host für GPT-Modelle geworden. GCP bietet TPU-Zugang und Vertex AI. Alle drei bieten fertige APIs für Vision, Speech und Text, die ohne eigenes ML-Wissen nutzbar sind.
Die Kosten sind erheblich. Ein H100-GPU-Cluster für das Training eines Frontier-Modells kann Millionen Dollar kosten. Cloud-basierte KI-Inferenz wird pro Token oder pro API-Call abgerechnet und summiert sich schnell. Die Frage „Cloud vs. On-Premise" ist deshalb eine strategische Entscheidung: Cloud bietet Flexibilität und Skalierung, lokale Hardware bietet Kontrolle und langfristig niedrigere Kosten bei konstanter Auslastung.
Die regulativen Aspekte (DSGVO, Schrems-II, Datensouveränität) treiben zudem die Nachfrage nach europäischen Cloud-Alternativen wie IONOS, Hetzner und Open Telekom Cloud.