Was wäre, wenn ein KI-Modell im Namen von Mitarbeitern einkauft, verhandelt und verkauft — vollständig autonom, ohne menschliche Zwischenschritte? Anthropic hat genau das getestet. Das Experiment heißt „Project Deal" und ist in seiner Konzeption und seinen Erkenntnissen eine der aufschlussreichsten KI-Studien des Jahres 2026.
Das Experiment
Anthropic richtete für seine Mitarbeiter einen internen Marktplatz ein — ähnlich einem unternehmensinternen Craigslist oder einer Büro-Flohmarkt-Plattform. Die Besonderheit: Nicht die Menschen kauften und verkauften selbst. Stattdessen übernahmen Claude-Agenten die gesamte Interaktion: Sie inserieren, verhandeln, stellen Anfragen und schließen Deals ab. Der Mensch legt nur zu Beginn fest, was er loswerden oder erwerben möchte — den Rest erledigt der Agent.
An dem Experiment nahmen 69 Anthropic-Mitarbeiter teil, jeder mit einem Budget von 100 US-Dollar. Das Ergebnis: 186 erfolgreiche Transaktionen mit einem Gesamtvolumen von über 4.000 US-Dollar — vollständig von KI-Agenten abgewickelt. Gehandelt wurden reale Gegenstände: Büromaterial, Elektronik, Lebensmittel, Haushaltswaren.
Das zentrale Ergebnis: Modellqualität als unsichtbare Variable
Das wichtigste Resultat des Experiments ist nicht die Anzahl der Deals — sondern eine asymmetrische Wahrnehmungslücke. Anthropic testete zwei unterschiedliche Claude-Modelle parallel: Claude Opus 4.5 (das leistungsstärkere Modell) und Claude Haiku 4.5 (das günstigere, schnellere Modell).
Die objektive Auswertung zeigte: Nutzer, deren Agent mit Claude Opus 4.5 ausgestattet war, erzielten messbar bessere Deals — höhere Verkaufspreise, günstigere Einkaufspreise, strategisch stärkere Verhandlungspositionen. Claude Haiku 4.5 schnitt deutlich schlechter ab.
Das Problem: Die Nutzer merkten es nicht. Beide Gruppen berichteten von positiven Erfahrungen und waren ähnlich zufrieden mit dem Prozess — obwohl die tatsächlichen wirtschaftlichen Resultate erheblich differierten. Die Qualität des eingesetzten Agenten war für die Beteiligten nicht spürbar, wohl aber messbar in den Ergebnissen.
Prompt Injection und Sicherheit im Agenten-Markt
Project Deal war nicht nur ein Effizienztest — es war auch ein Sicherheitsexperiment. Anthropic überprüfte systematisch, ob die Claude-Agenten gegenüber Prompt Injection anfällig sind: der Technik, bei der bösartige Instruktionen in scheinbar harmlose Nachrichten eingebettet werden, um den Agenten zu manipulieren.
Die Ergebnisse zeigten: Claude erkannte die meisten Injektionsversuche und lehnte sie ab — blieb also innerhalb der beabsichtigten Verhandlungsparameter. Allerdings dokumentiert Anthropic auch, dass diese Bedrohung in realen Agenten-Märkten eine ernsthafte strukturelle Herausforderung bleibt. Sobald KI-Agenten im Auftrag von Menschen verhandeln, wird die Integrität jedes Kommunikationskanals zu einem Sicherheitsrisiko.
Warum das größer ist als ein internes Experiment
Project Deal ist ein Konzeptbeweis für eine neue Klasse von Anwendungen: Agentic Commerce. Statt Plattformen, auf denen Menschen handeln, entstehen Umgebungen, in denen KI-Agenten im Namen von Menschen handeln — auf Marktplätzen, in Ausschreibungsverfahren, bei Beschaffungsprozessen. Anthropic selbst bezeichnet das Experiment als Vorgeschmack auf eine Zukunft, in der Agenten nicht nur Aufgaben erledigen, sondern wirtschaftliche Interessen vertreten.
Für die Marktperspektive war die Reaktion bemerkenswert direkt: Plattformen wie eBay verloren am Tag der Veröffentlichung des Forschungsberichts rund 5 Prozent an Börsenwert — ein Signal dafür, dass institutionelle Investoren das Disruptionspotenzial dieser Technologie sehr ernst nehmen.
🎯 Was das für die Praxis bedeutet
1. Modellqualität schlägt durch — auch wenn Nutzer es nicht spüren: Der Experiment-Befund ist eine direkte Warnung für alle, die KI-Agenten im Unternehmenseinsatz planen. Ein günstigeres Modell kann sich «gut anfühlen», aber messbar schlechtere wirtschaftliche Ergebnisse liefern. Bei autonomen Verhandlungs- oder Beschaffungsprozessen kann das einen erheblichen finanziellen Unterschied machen.
2. Prompt Injection als strukturelles Sicherheitsproblem: Sobald ein KI-Agent eigenständig mit externen Gesprächspartnern interagiert, ist jede eingehende Nachricht ein potenzieller Angriffsvektor. Unternehmen, die Agenten für Verhandlungen, Beschaffung oder Kundenkommunikation einsetzen wollen, müssen Prompt-Injection-Resistenz als Kernanforderung definieren — nicht als optionales Feature.
3. Agentic Commerce ist kein Zukunftsszenario mehr: Anthropic hat es mit 69 Mitarbeitern und echtem Geld getestet — und es hat funktioniert. Wer Plattformen, Marktplätze oder B2B-Handelsinfrastruktur betreibt, sollte jetzt analysieren, wie sich seine Nutzerbasis verhält, wenn ein erheblicher Anteil der Gegenseite aus Agenten besteht.