Anthropic zeichnet zwei KI-Szenarien für 2028 – und warnt vor einem autoritären KI-Frontier

Anthropic hat ein ungewöhnlich politisches Paper veröffentlicht: „2028: Two Scenarios for Global AI Leadership“. Darin zeichnet das Unternehmen zwei mögliche Zukünfte für den KI-Wettbewerb zwischen den USA und China – und macht klar, dass die Uhr tickt. Der Ton ist deutlich schärfer als bei früheren Veröffentlichungen.

Dario Amodeis Firma ist bekannt für ihre Sicherheitsrhetorik – und sorgt immer wieder für Schlagzeilen, zuletzt mit kuriosen Claude-Verhaltensweisen. Aber dieses Paper geht weiter: Es ist ein strategisches Policy-Dokument, das konkret sagt, was Washington tun muss – und was passiert, wenn es nicht handelt. Der Zeitrahmen ist bewusst knapp gewählt. 2028, so Anthropic, könnten transformative KI-Systeme Realität sein. Bis dahin muss die Führungsfrage geklärt sein.

Was steht in dem Paper?

Das Anthropic-Paper vom 14. Mai 2026 argumentiert entlang einer zentralen Prämisse: Compute ist der entscheidende Rohstoff für Frontier-KI. Die leistungsfähigsten Chips kommen von amerikanischen Firmen – und die US-Exportkontrollen begrenzen Chinas Zugang. Das hat bisher funktioniert. Chinesische KI-Labore konnten nur deshalb mithalten, weil sie Weltklasse-Talente haben, Lücken in den Exportregeln ausnutzen und systematisch Destillation-Angriffe auf US-Modelle durchführen.

Anthropic zeichnet dann zwei Szenarien für 2028:

  • Szenario 1 – Demokratien führen: Die USA schließen Export-Lücken, unterbinden Destillation und beschleunigen die KI-Adoption in demokratischen Ländern. Demokratien setzen die Regeln und Normen für KI. Ein 12–24-monatiger Vorsprung wird erreicht.
  • Szenario 2 – China holt auf: Washington handelt nicht. Chinesische Firmen nutzen die verbleibenden Schlupflöcher, erreichen die Frontier und überholen die USA. Autoritäre Regime bestimmen die Spielregeln – „auf dem Rücken amerikanischer Rechenleistung“, wie Anthropic trocken anmerkt.

Warum das mehr ist als Geopolitik

Das Paper ist kein abstraktes Gedankenspiel. Anthropic macht drei konkrete Bedrohungen geltend, die über den üblichen „KI-Wettlauf“-Diskurs hinausgehen.

1. Automatisierte Repression

Autoritäre Regime waren bisher durch menschliche Vollstrecker limitiert – Überwachung und Unterdrückung skalieren nicht beliebig. Frontier-KI ändert das. Anthropic verweist auf Xinjiang, wo Gesichtserkennung, Biometrie und Kommunikationsüberwachung bereits systematisch eingesetzt werden. Mit leistungsfähigeren KI-Systemen werden diese Fähigkeiten billiger, allgegenwärtiger und raffinierter. Die KPCh exportiert diese Technologien zudem an andere Autokratien.

2. Militärische Beschleunigung

Die Volksbefreiungsarmee verfolgt eine „Intelligentisierungs“-Strategie. DeepSeek-Modelle werden bereits für Drohnenschwärme und Cyber-Offensivfähigkeiten beschafft. Anthropics Punkt: Anders als bei früheren Technologiewellen diffundieren KI-Fähigkeiten nicht langsam. Wenn ein Modell eine neue Fähigkeit in autonomer Zielerfassung oder Schwachstellenanalyse erreicht, kann das Regime sie „in Wochen ins Feld bringen, nicht in Jahren“.

3. Sicherheits-Deregulierung im Wettlauf

Ein Kopf-an-Kopf-Rennen zwischen US- und chinesischen Laboren könnte Sicherheitsstandards aushöhlen. Unter Wettbewerbsdruck würden Firmen Modelle schneller releasen – ohne angemessene Pre-Deployment-Tests. Regierungen könnten zögern, Sicherheitsauflagen zu verschärfen, aus Angst vor Wettbewerbsnachteilen. Anthropic belegt das mit Zahlen: Nur 3 von 13 führenden chinesischen KI-Laboren veröffentlichten 2025 überhaupt Sicherheitsevaluierungen. Kein einziges testete auf CBRN-Risiken (chemisch, biologisch, radiologisch, nuklear).

Der Mythos-Weckruf

Besonders brisant: Anthropic nutzt den eigenen Claude Mythos Previewdas leistungsstärkste KI-Modell, das sich kaum jemand leisten kann – als Argument. Das Modell, das im April im Rahmen von Project Glasswing an ausgewählte Partner ging, half Firefox dabei, allein im letzten Monat mehr Sicherheitslücken zu schließen als im gesamten Jahr 2025 – fast das 20-fache des monatlichen Durchschnitts.

Ein chinesischer Cybersicherheitsanalyst kommentierte laut Anthropic: „Wir schärfen noch unsere Schwerter, während die Gegenseite plötzlich ein vollautomatisches Gatling-Gewehr aufgestellt hat.“ Genau dieses Fähigkeitsgefälle will Anthropic zementieren.

Vier Fronten des KI-Wettbewerbs

Anthropic beschreibt den Wettbewerb nicht als Rennen mit Ziellinie, sondern als andauernden Wettstreit um strategische Vorteile auf vier Ebenen:

  • Intelligenz: Wer baut die leistungsfähigsten Modelle?
  • Adoption: Wer setzt KI schneller in Wirtschaft und Verwaltung ein?
  • Globale Verteilung: Wessen Modelle laufen in den Rechenzentren der Welt?
  • Normen und Regeln: Wer definiert die Governance-Standards?

Die gute Nachricht: Die USA führen auf allen vier Ebenen. Die schlechte: Der Vorsprung ist nicht gesichert. China hat Weltklasse-Talente, günstige Energie, riesige Datenmengen – aber nicht genug eigene Compute-Kapazität. Genau hier setzen die Exportkontrollen an, und genau deshalb ist ihre Verteidigung für Anthropic die zentrale politische Priorität.

Was bedeutet das für Unternehmen und Entwickler?

Das Paper richtet sich primär an Politik und Öffentlichkeit. Aber die Implikationen reichen bis in den KI-Alltag von Unternehmen:

  • Modellverfügbarkeit: Sollten Exportkontrollen verschärft werden, könnte das auch die Verfügbarkeit bestimmter KI-Dienste in Europa beeinflussen – Stichwort Compliance und geopolitische Risikoabwägung bei der Modellauswahl.
  • Security-First-Denken: Mythos Preview zeigt: Frontier-Modelle werden zu massiven Sicherheitsbeschleunigern. Unternehmen, die heute nicht in KI-gestützte Security-Toolchains investieren, werden von Akteuren überholt, die es tun.
  • Souveränitäts-Debatte: Das Paper befeuert die Diskussion um europäische KI-Souveränität. Wenn US-Modelle durch politische Entscheidungen priorisiert werden – was heißt das für europäische Alternativen wie Mistral?
  • Open-Weight-Risiko: Anthropic warnt explizit vor Open-Weight-Modellen aus China, deren Sicherheitsmechanismen nachträglich entfernt werden können. Ein Thema, das bei der Modellauswahl für sicherheitskritische Anwendungen relevant ist.

Fazit: Ein strategisches Papier mit praktischen Konsequenzen

Anthropics Paper ist mehr als ein Policy-Vorschlag – es ist eine strategische Positionsbestimmung in einem sich beschleunigenden Wettbewerb. Das „Country of Geniuses in a Datacenter“, wie Amodei transformative KI nennt, rückt näher. Wer es zuerst erreicht, definiert die Spielregeln.

Das Paper reiht sich ein in eine Serie strategischer Anthropic-Initiativen – von Agent-to-Agent-Kommerz mit Project Deal bis zur Mythos-Architektur. Ob man Anthropics teils alarmistischen Ton teilt oder nicht: Die zugrunde liegende Analyse ist solide. Exportkontrollen wirken, Destillation ist ein reales Problem, und der Zeitrahmen bis 2028 ist knapp. Für Unternehmen bedeutet das: Geopolitische Risikoabwägung gehört ab sofort zur KI-Strategie.

FAQ

Was sind die zwei Szenarien in Anthropics 2028-Paper?

Szenario 1: Demokratien verteidigen ihren Compute-Vorsprung durch verschärfte Exportkontrollen, unterbinden Destillation und setzen globale KI-Normen. Szenario 2: Die USA handeln nicht, China holt auf oder überholt – autoritäre Regime bestimmen die Regeln.

Warum ist Compute so entscheidend für den KI-Wettbewerb?

Rechenleistung (Compute) ist der wichtigste Rohstoff für das Training von Frontier-KI-Modellen. Die leistungsfähigsten KI-Chips werden von US-Firmen wie NVIDIA entwickelt. US-Exportkontrollen begrenzen Chinas Zugang zu diesen Chips – das ist aktuell der wirksamste Hebel, um einen Vorsprung zu halten.

Was sind Destillation-Angriffe?

Destillation-Angriffe bedeuten, dass ein leistungsfähiges Modell (z. B. Claude oder GPT) gezielt abgefragt wird, um dessen Antworten zum Training eines eigenen Modells zu nutzen. So können Innovationen amerikanischer Labore ohne eigene Grundlagenforschung kopiert werden.

Was hat Claude Mythos Preview mit dem Paper zu tun?

Anthropic nutzt Mythos Preview als „Wake-up Call“: Das Modell half Firefox, in einem Monat mehr Sicherheitslücken zu schließen als im gesamten Vorjahr. Das illustriert, wie groß der Fähigkeitssprung durch Frontier-KI ist – und warum es gefährlich wäre, wenn autoritäre Regime diesen Vorsprung als erste erreichen.

Kommentar verfassen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert