Anthropic schlägt Alarm. In einem am Montag veröffentlichten Blogpost beschuldigt das Unternehmen drei chinesische KI-Labore, im industriellen Maßstab Fähigkeiten aus seinem Sprachmodell Claude abgesaugt zu haben. Die Namen: DeepSeek, Moonshot AI (Kimi) und MiniMax. Zusammen sollen sie über 16 Millionen Anfragen an Claude gestellt haben — über rund 24.000 betrügerische Accounts.

Die verwendete Methode heißt Destillation: Dabei wird ein schwächeres KI-Modell systematisch mit den Antworten eines stärkeren trainiert. Das ist grundsätzlich eine legitime Technik — Anthropic selbst nutzt sie, um schlankere Varianten seiner eigenen Modelle zu bauen. Zum Problem wird es, wenn Konkurrenten damit Fähigkeiten abschöpfen, die sie sonst in Monaten teurer Eigenentwicklung hätten aufbauen müssen.

Die Dimension: Drei Labore, 16 Millionen Anfragen

Die Zahlen, die Anthropic vorlegt, sind erheblich — und werfen die Frage auf, wie systematisch chinesische KI-Firmen westliche Modelle als Trainingsmaterial nutzen:

  • MiniMax war mit über 13 Millionen Anfragen der mit Abstand größte Akteur. Der Fokus lag auf agentischem Coding, Tool-Nutzung und Orchestrierung — also genau jenen Fähigkeiten, die KI-Agenten handlungsfähig machen. Brisant: Als Anthropic ein neues Modell veröffentlichte, leitete MiniMax laut Anthropic innerhalb von 24 Stunden fast die Hälfte seines Traffics auf das neue System um.
  • Moonshot AI (bekannt für die Kimi-Modelle) generierte über 3,4 Millionen Anfragen. Die Ziele: agentisches Reasoning (schlussfolgerndes Denken), Computer-Steuerung und Computer Vision. Hunderte verschiedener Account-Typen sollten die Koordination verschleiern.
  • DeepSeek war mit über 150.000 Anfragen zwar der kleinste, aber strategisch besonders raffiniert. Das Labor ließ Claude seine internen Denkschritte offenlegen — sogenannte Chain-of-Thought-Daten, die beim Training von Reasoning-Modellen besonders wertvoll sind. Zudem nutzte DeepSeek Claude laut Anthropic, um zensurkonforme Antworten für politisch heikle Themen zu generieren.

„Hydra-Cluster": Wie die Labore die Erkennung umgingen

Anthropic beschreibt ausgeklügelte Tarnstrategien. Die drei Labore nutzten sogenannte „Hydra-Cluster" — weitverzweigte Netzwerke aus gefälschten Accounts und kommerziellen Proxy-Diensten, die eine Erkennung erschweren. Identifiziert wurden die Kampagnen über IP-Adressen-Korrelationen, Anfrage-Metadaten und Infrastrukturmuster.

Kein Einzelfall: OpenAI und Google betroffen

Anthropic steht mit den Vorwürfen nicht allein. OpenAI hatte bereits im Februar US-Gesetzgeber davor gewarnt, dass DeepSeek Destillationstechniken zur Verbesserung seines R1-Modells einsetze. Auch Google berichtete laut Fast Company (Feb. 2026) über vergleichbare Kampagnen gegen sein Gemini-Modell. Das Muster deutet auf eine koordinierte, branchenweite Strategie hin.

Das Sicherheitsrisiko: Fähig, aber ungesichert

Das Problem reicht weit über Lizenzfragen hinaus. Anthropic argumentiert, dass destillierte Modelle die Fähigkeiten des Originals übernehmen, aber nicht dessen Sicherheitsmechanismen. Die Konsequenz: Leistungsfähige KI ohne die Schutzmechanismen, die verhindern sollen, dass die Technologie für Biowaffen-Entwicklung, Cyberangriffe oder Massenüberwachung missbraucht wird.

„Modelle, die durch illegitime Destillation entstehen, behalten diese Schutzmaßnahmen sehr wahrscheinlich nicht bei", schreibt Anthropic. „Das bedeutet, dass gefährliche Fähigkeiten sich verbreiten können, ohne jegliche eingebaute Sicherheitsnetze."

Exportkontrollen als Schutzschild?

Anthropic nutzt den Vorfall explizit als Argument für strengere Exportkontrollen bei KI-Chips. Die Logik: Wenn chinesische Labore keinen Zugang zu modernster Trainings-Hardware haben, sind sie stärker auf Destillation angewiesen. Und wenn Destillation effektiv unterbunden wird, schränkt das die unabhängige Modellentwicklung erheblich ein. Ein doppelter Riegel — Hardware-Knappheit plus Destillationsschutz — soll den technologischen Vorsprung sichern.

🎯 Was das für die Praxis bedeutet

1. Unternehmen, die proprietäre: KI-Modelle einsetzen oder selbst entwickeln, sollten ihre API-Zugänge prüfen. Systematisch ungewöhnliche Nutzungsmuster — viele Accounts, hohe Anfragenvolumina, identische Prompt-Strukturen — deuten auf Destillationsangriffe hin.

2. Die Debatte um: Exportkontrollen verschärft sich. Firmen, die mit US-amerikanischen KI-Anbietern arbeiten, sollten Compliance-Anforderungen im Auge behalten — diese könnten sich kurzfristig ändern.

3. Die Causa zeigt: KI-Sicherheit ist kein rein technisches, sondern ein geopolitisches Thema. Wer KI in sicherheitskritischen Bereichen einsetzt, muss die Herkunft und den Trainingsweg des Modells als Risikofaktor bewerten.

📰 Quellen
Anthropic Blog ↗
Teilen: