DeepSeek hat am 24. April seine V4-Modellfamilie veröffentlicht — und schickt damit das bislang größte Open-Source-Sprachmodell der Welt ins Rennen. Das Flaggschiff V4-Pro bringt 1,6 Billionen Parameter mit, von denen pro Anfrage nur rund 49 Milliarden aktiv werden. Daneben steht eine schlankere V4-Flash-Variante mit 284 Milliarden Parametern (13 Milliarden aktiv). Beide Modelle sind unter MIT-Lizenz frei verfügbar — Gewichte, Code, alles offen.
Das Besondere: V4 läuft nicht auf NVIDIA-Chips, sondern ist nativ für Huawei Ascend 950PR optimiert. Damit demonstriert DeepSeek zum ersten Mal, dass ein Frontier-Modell vollständig auf chinesischer Halbleiter-Infrastruktur trainiert und betrieben werden kann — ein strategischer Meilenstein, der in der Branche als Beginn der „De-CUDAisierung" diskutiert wird.
Was V4 technisch mitbringt
Beide Modelle nutzen eine Mixture-of-Experts-Architektur (MoE). Das Prinzip: Das Modell besteht aus vielen spezialisierten Unter-Netzwerken (Experten), von denen pro Anfrage nur eine Handvoll aktiviert wird. So lässt sich ein riesiges Modell betreiben, ohne dass jede Anfrage die volle Rechenleistung benötigt — ein entscheidender Kostenvorteil gegenüber Modellen, die alle Parameter gleichzeitig nutzen.
Das Kontextfenster beträgt bei beiden Varianten eine Million Tokens — das entspricht mehreren hundert Seiten Text, die das Modell gleichzeitig verarbeiten kann. Damit liegt V4 auf dem Niveau der besten proprietären Modelle von Google und Anthropic.
In Benchmarks positioniert sich V4-Pro laut DeepSeeks eigenen Angaben auf Augenhöhe mit OpenAIs GPT-5.4 bei Coding-Tests (MMLU-Pro). Bei komplexem Reasoning liegt es laut DeepSeeks eigenen Angaben knapp hinter Googles Gemini-3.1-Pro und Anthropics Claude Opus 4.6 — aber deutlich vor allen anderen Open-Source-Modellen. Bei Weltwissen, Agenten-Fähigkeiten und logischem Denken soll V4-Pro unter den frei verfügbaren Modellen führend sein.
Preise: Open Source mit Geschäftsmodell
Wer V4 nicht selbst betreiben will, kann die Modelle über DeepSeeks API nutzen. Die Preise (in chinesischen Yuan, RMB) zeigen, wie aggressiv DeepSeek den Markt unterbietet:
- V4-Pro: 12 RMB (~1,50 Euro) pro Million Input-Tokens, 24 RMB (~3 Euro) pro Million Output-Tokens. Bei Cache-Treffern sinkt der Input-Preis auf 1 RMB.
- V4-Flash: 1 RMB (~0,13 Euro) pro Million Input-Tokens, 2 RMB (~0,25 Euro) pro Million Output-Tokens. Gecachte Eingaben kosten nur 0,2 RMB.
Zum Vergleich: OpenAIs GPT-5.5 Thinking kostet 5 Dollar pro Million Input-Tokens und 30 Dollar pro Million Output-Tokens. Selbst V4-Pro — DeepSeeks teuerstes Modell — liegt damit um den Faktor 10 unter den Preisen der amerikanischen Konkurrenz. V4-Flash konkurriert preislich eher mit DeepSeeks eigenem bisherigen Flash-Modell als mit westlichen Anbietern.
Huawei statt NVIDIA: Die geopolitische Dimension
Die technisch relevanteste Nachricht steckt nicht in den Benchmark-Zahlen, sondern in der Hardware. V4 ist das erste Frontier-KI-Modell, das vollständig auf chinesischen Chips — konkret Huaweis Ascend 950PR — trainiert und betrieben werden kann. Die Bedeutung ist kaum zu überschätzen: Chinesische KI-Labore waren bislang auf geschmuggelte oder umgeleitete NVIDIA-GPUs angewiesen, um mit der Weltspitze mitzuhalten.
Wenn DeepSeek mit V4 demonstriert, dass Frontier-Leistung auch ohne NVIDIA-Hardware möglich ist, verändert das die gesamte Exportkontroll-Dynamik. Die US-Chipbeschränkungen gegen China verlieren einen Teil ihrer Wirkung, wenn die betroffenen Labore auf leistungsfähige Alternativen zurückgreifen können. Jensen Huang, NVIDIAs CEO, hatte bereits im März gewarnt, dass DeepSeek zu einem ernsthaften Konkurrenten heranwachse — V4 bestätigt diese Einschätzung.
Was V4 für den Open-Source-Markt bedeutet
V4 verschiebt die Grenze dessen, was mit frei verfügbaren Modellen möglich ist, erneut nach oben. Noch vor einem Jahr lag die Open-Source-Welt eine Generation hinter den proprietären Modellen zurück. Mit V4-Pro — das auf Augenhöhe mit GPT-5.4 liegt — schrumpft dieser Abstand auf wenige Monate.
Für Unternehmen und Entwickler ändert sich die Kalkulation: Wer ein leistungsstarkes Sprachmodell braucht, muss es nicht mehr zwingend von OpenAI, Google oder Anthropic mieten. V4-Pro kann unter MIT-Lizenz heruntergeladen, auf eigener Infrastruktur betrieben und ohne Einschränkungen kommerziell genutzt werden. Die Gewichte sind auf Hugging Face und ModelScope verfügbar.
Gleichzeitig signalisiert DeepSeek mit dem geplanten Sunset der bisherigen Modelle (deepseek-chat und deepseek-reasoner zum 24. Juli 2026), dass V4 kein Experiment ist, sondern die neue Produktionsgeneration. Wer heute auf DeepSeeks API baut, sollte zeitnah auf V4-Modelle migrieren.
🎯 Was das für die Praxis bedeutet
1. Open-Source-Alternative ernstnehmen: V4-Pro schließt leistungsmäßig zu proprietären Modellen auf. Unternehmen, die aus Datenschutz- oder Kostengründen keine Cloud-APIs nutzen wollen, haben jetzt eine ernsthafte lokale Alternative.
2. API-Kosten neu kalkulieren: DeepSeeks Preise liegen um den Faktor 10 unter OpenAI und Anthropic. Für Batch-Verarbeitung, Datenanalyse und Backend-Aufgaben kann der Wechsel erhebliche Kosten sparen — ohne proportionalen Qualitätsverlust.
3. Migration planen: Wer DeepSeeks bisherige API-Modelle (deepseek-chat, deepseek-reasoner) nutzt, hat bis zum 24. Juli 2026 Zeit für den Umstieg auf V4. Frühzeitig testen, um Kompatibilitätsprobleme rechtzeitig zu erkennen.
4. Geopolitische Abhängigkeiten beobachten: V4 auf Huawei-Chips ist ein Signal: Die US-Chipkontrollen verlieren an Hebelwirkung. Für europäische Unternehmen bedeutet das mehr Anbietervielfalt — aber auch die Notwendigkeit, Lieferketten und Technologiepartnerschaften bewusster zu bewerten.