Zhipu AI hat mit GLM-5 ein Frontier-Modell veröffentlicht, das die Karten im globalen KI-Wettbewerb neu mischt. Das Modell mit 744 Milliarden Parametern erreicht in wichtigen Benchmarks das Niveau von GPT-5.2 und Claude Opus 4.5 — und steht unter MIT-Lizenz komplett offen. Besonders brisant: GLM-5 wurde vollständig auf Huawei Ascend 910B-Chips trainiert, also ohne Zugang zu Nvidia-Hardware.
Die Benchmark-Ergebnisse
GLM-5 zeigt auf den wichtigsten KI-Benchmarks bemerkenswerte Ergebnisse. Auf MMLU (allgemeines Wissen), GSM8K (Mathematik) und HumanEval (Code-Generierung) liegt das Modell gleichauf mit oder knapp hinter GPT-5.2 und Claude Opus. Besonders stark ist es bei chinesischsprachigen Aufgaben und bei Code-Generierung, wo es auf einigen Tests sogar die westlichen Frontier-Modelle übertrifft.
Die technische Architektur basiert auf einem Mixture-of-Experts-Ansatz (MoE), bei dem nicht alle 744 Milliarden Parameter gleichzeitig aktiviert werden, sondern jeweils nur ein Bruchteil. Das macht Inferenz effizienter und senkt die Betriebskosten erheblich.
Die geopolitische Dimension
GLM-5 ist ein Signal an die Welt: Die US-Exportkontrollen für KI-Chips bremsen China nicht so stark wie erhofft. Die Biden-Administration hat ab Oktober 2023 den Export von Nvidia H100 und vergleichbaren Chips nach China verboten. Zhipu AI zeigt mit GLM-5, dass es möglich ist, ein Frontier-Modell auf alternativer Hardware (Huawei Ascend) zu trainieren — weniger effizient, langsamer, teurer, aber machbar.
Für die strategische Kalkulation des Westens hat das weitreichende Konsequenzen: Exportkontrollen verzögern Chinas KI-Fortschritt, stoppen ihn aber nicht. Und jedes Mal, wenn ein chinesisches Unternehmen demonstriert, dass es ohne westliche Hardware auskommen kann, sinkt die langfristige Hebelwirkung der Sanktionen.
Open Source als strategische Waffe
Die Entscheidung, GLM-5 unter der permissiven MIT-Lizenz zu veröffentlichen, ist kein Akt der Großzügigkeit — es ist Strategie. China will den globalen KI-Stack beeinflussen. Wenn Entwickler weltweit GLM-5 in ihren Produkten einsetzen, entsteht ein Ökosystem, das an chinesischer Infrastruktur hängt. Das ist dasselbe Playbook, das Meta mit LLaMA verfolgt — nur mit anderen geopolitischen Vorzeichen.
Auf Hugging Face ist das Modell bereits verfügbar. Erste Benchmarks unabhängiger Tester bestätigen die offiziellen Angaben weitgehend, wenngleich die Performance bei westlichen Sprachen und kulturspezifischen Aufgaben erwartungsgemäß etwas schwächer ausfällt.
📊 Einordnung
GLM-5 widerlegt die These, dass China in der KI-Entwicklung abgehängt sei. Es widerlegt auch die Annahme, dass Exportkontrollen allein die Technologie-Dominanz des Westens sichern können. Was bleibt, ist eine unbequeme Realität: Der KI-Wettbewerb findet auf zwei Gleisen statt — einem amerikanischen (Nvidia/CUDA) und einem chinesischen (Huawei/CANN). Beide erreichen mittlerweile vergleichbare Ergebnisse. Für Europa, das auf keinem der beiden Gleise eigene Züge fahren lässt, wird die Position mit jedem Monat prekärer.
🎯 Was bedeutet das konkret?
- Für Entwickler: GLM-5 ist als Open-Source-Modell eine ernsthafte Alternative zu LLaMA und Mistral. Wer mit chinesischen Daten oder Märkten arbeitet, hat damit die beste verfügbare Option.
- Für Unternehmen: Die Abhängigkeit von einem einzigen KI-Ökosystem (OpenAI/Microsoft oder Google) wird riskanter. Multi-Provider-Strategien, die auch Open-Source-Modelle einbeziehen, erhöhen die Resilienz.
- Für die Politik: Die DACH-Region braucht eine eigene Position in der KI-Geopolitik. Weder blinde Anlehnung an die USA noch unkritische Übernahme chinesischer Modelle ist strategisch klug.