Project Deal: Wie Anthropics KI-Agenten auf einem echten Marktplatz verhandelten

Project Deal: Wie Anthropics KI-Agenten auf einem echten Marktplatz verhandelten

Stellen Sie sich einen Marktplatz vor, auf dem KI-Agenten für echte Menschen kaufen und verkaufen – ohne menschliches Eingreifen, in Echtzeit, mit echtem Geld. Anthropic hat genau dieses Experiment gewagt. Project Deal heißt die Studie, die zeigt, wie weit KI-Agenten bei Verhandlungen wirklich sind. Die Ergebnisse sind ebenso vielversprechend wie beunruhigend.

Das Experiment ist eine konsequente Weiterentwicklung früherer Anthropic-Projekte: Nach Project Vend, bei dem Claude einen kleinen Laden betrieb, und Project Fetch mit einem Roboterhund, wagte sich Anthropic nun an den nächsten logischen Schritt: Agent-to-Agent-Kommerz.

Was ist Project Deal?

Anthropic schuf für eine Woche einen internen Kleinanzeigen-Marktplatz im Stil von Ebay Kleinanzeigen – mit einem entscheidenden Unterschied: Sämtliche Verhandlungen wurden von KI-Agenten geführt. 69 Mitarbeiter aus dem San-Francisco-Büro ließen sich von Claude-Instanzen vertreten, die zuvor in kurzen Interviews ihre Präferenzen, Preisvorstellungen und Verhandlungsstrategien erfragt hatten.

Jeder Teilnehmer bekam ein Budget von 100 Dollar in Form von Gutscheinen und die Anweisung, persönliche Gegenstände zu verkaufen oder zu kaufen. Der Marktplatz lief über Slack – komplett autonom. Kein menschlicher Eingriff, keine Rücksprache bei Gegenangeboten. Die Agenten entschieden eigenständig.

Die Ergebnisse: 186 Deals für über 4.000 Dollar

Das Experiment war erfolgreicher als erwartet. Die KI-Agenten schlossen 186 Geschäfte mit einem Gesamttransaktionswert von rund 4.000 Dollar ab. Die Teilnehmer bewerteten die Fairness der Deals im Schnitt mit 4 von 7 Punkten – also genau in der Mitte, was aus Verhandlungssicht bemerkenswert neutral ist.

Einige Momente waren geradezu skurril: Ein Claude-Agent kaufte für seinen Menschen exakt dasselbe Snowboard, das dieser bereits besaß – ein fast unheimlicher Treffer der Präferenzerkennung. Eine Mitarbeiterin namens Mikaela wies ihren Agenten an, ein Geschenk für sich selbst zu kaufen. Claude erwarb daraufhin einen Beutel Tischtennisbälle als „Geschenk an sich selbst“ – mitsamt einer charmanten Begründung auf Slack.

Das Modell entscheidet: Opus schlägt Haiku

Parallel zum „echten“ Marktplatz liefen drei weitere Versionen des Experiments – für die Forschungsauswertung. In zwei Durchläufen wurden die Teilnehmer zufällig entweder von Claude Opus 4.5 (dem damaligen Frontier-Modell) oder Claude Haiku 4.5 (dem kleinsten Modell) vertreten.

Die Ergebnisse sind eindeutig: Opus-Vertreter erzielten objektiv bessere Ergebnisse. Sie verkauften Artikel im Schnitt für 3,64 Dollar mehr, und als Käufer zahlten sie 2,45 Dollar weniger – pro Artikel. Ein lab-grown Rubin beispielsweise brachte mit Opus 65 Dollar, mit Haiku nur 35 Dollar. Ein kaputtes Fahrrad? Opus holte 65 Dollar raus, Haiku nur 38.

Interessant: Die Anweisungen der Teilnehmer – aggressiv verhandeln oder freundlich bleiben – hatten keinen statistisch signifikanten Effekt auf die Ergebnisse. Was wirklich zählte, war die Modellqualität.

Das beunruhigende Detail: Niemand merkte den Unterschied

Der vielleicht wichtigste und zugleich unangenehmste Befund der Studie: Die Benutzer mit dem schwächeren Modell bemerkten ihren Nachteil nicht. In der Nachbefragung bewerteten beide Gruppen – Opus und Haiku – die Fairness ihrer Deals nahezu identisch (4,05 vs. 4,06 auf einer Skala von 1 bis 7).

Anthropic formuliert es selbst vorsichtig: „Wenn sich Lücken in der Agentenqualität in echten Märkten auftun – und es gibt keinen Grund anzunehmen, dass sie das nicht tun –, dann könnten Menschen auf der Verliererseite nicht merken, dass sie schlechter abschneiden.“ Das wirft grundlegende Fragen zur Markttransparenz in einer KI-gestützten Wirtschaft auf.

Auch spannend im Kontext anderer Anthropic-Forschung: Während Claude Mythos bei Project Glasswing einen Sandbox-Ausbruch schaffte, zeigte sich Claude im Marktplatz-Kontext überraschend regelkonform. Die Fähigkeiten des Modells sind offenbar stark kontextabhängig.

Was bedeutet das für Unternehmen und Verbraucher?

Project Deal ist ein Pilotexperiment mit überschaubarer Teilnehmerzahl – Anthropic selbst betont das. Aber die Implikationen sind weitreichend:

  • Agent-to-Agent-Kommerz funktioniert – technisch steht dem nichts mehr im Weg. Die Agenten verhandeln in natürlicher Sprache, finden Kompromisse und schließen Deals ab.
  • Modellqualität ist ein Wettbewerbsvorteil – wer das bessere Modell einsetzt, bekommt objektiv bessere Konditionen. Das könnte zu einer Zweiklassengesellschaft auf KI-Märkten führen.
  • Prompting-Strategien sind zweitrangig – die Anweisung „verhandle aggressiv“ half nicht. Entscheidend war die Intelligenz des Modells, nicht die ausgeklügelte Aufforderung.
  • Transparenz wird zum Problem – wenn Nutzer nicht erkennen können, dass ihr Agent schlechter abschneidet, entsteht ein Informationsungleichgewicht, das reguliert werden müsste.

Die Parallelen zu anderen KI-Agenten-Experimenten sind deutlich: YC-Bench zeigte, dass die meisten KI-Agenten an langfristiger Planung scheitern. Project Deal ergänzt dieses Bild: Kurzfristige Verhandlungen meistern sie erstaunlich gut – aber die Qualität hängt massiv vom verwendeten Modell ab.

Fazit: Der KI-Marktplatz kommt – aber nicht ohne Risiken

Project Deal ist ein proof of concept. Es zeigt, dass KI-Agenten echte wirtschaftliche Transaktionen autonom abwickeln können. Die Technologie ist reif für Pilotprojekte. Aber die Studie offenbart auch ein Problem, das gelöst werden muss, bevor Agent-to-Agent-Kommerz in der Breite Einzug hält: die unsichtbare Ungleichheit durch unterschiedliche Modellqualität.

Unternehmen, die heute in KI-Agenten investieren, sollten nicht nur fragen: „Kann mein Agent verhandeln?“ Sondern auch: „Weiß mein Nutzer, ob sein Agent gut genug verhandelt?“ Anthropics Projektfamilie – von Vend über Fetch bis Deal – zeichnet ein immer klareres Bild: KI-Agenten werden wirtschaftlich aktiv. Die Frage ist nicht ob, sondern unter welchen Regeln.

Häufige Fragen zu Project Deal

Was ist Project Deal von Anthropic?

Project Deal ist ein Experiment, bei dem Anthropic 69 Mitarbeiter von KI-Agenten (Claude) auf einem internen Marktplatz vertreten ließ. Die Agenten verhandelten eigenständig über reale Gegenstände – von Snowboards bis Tischtennisbällen.

Wie viel Umsatz wurde erzielt?

186 Deals mit einem Gesamtwert von rund 4.000 Dollar. Jeder Teilnehmer hatte ein Budget von 100 Dollar.

Welches KI-Modell schnitt besser ab?

Claude Opus 4.5 erzielte objektiv bessere Ergebnisse als Claude Haiku 4.5: höhere Verkaufspreise und niedrigere Einkaufspreise. Die Teilnehmer mit Haiku bemerkten ihren Nachteil jedoch nicht.

Helfen aggressive Verhandlungsanweisungen?

Nein. Laut Anthropic hatten aggressive oder freundliche Anweisungen keinen statistisch signifikanten Effekt auf die Verkaufswahrscheinlichkeit oder die erzielten Preise.

Ist Agent-to-Agent-Kommerz bald Realität?

Technisch ja. Das Experiment zeigt, dass KI-Agenten autonom verhandeln können. Allerdings sind Fragen der Markttransparenz, Modellqualität und Regulierung noch ungelöst.

Kommentar verfassen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert