Anthropic hat mit Claude Mythos ein KI-System entwickelt, das autonom Sicherheitslücken in jedem großen Betriebssystem findet und ausnutzt – und es genau deshalb nicht veröffentlicht. Ein Essay im Spectator warnt: Wir machen bei KI denselben Fehler wie bei Corona – wir starren auf den Tagesstand statt auf die Verdopplungsrate.
Was ist passiert?
Am 7. April 2026 kündigte Anthropic Project Glasswing an – eine Cybersicherheits-Initiative auf Basis des neuen Modells Claude Mythos 2 Preview. Was das Modell kann, ist beispiellos: Es findet und exploitiert autonom kritische Sicherheitslücken in allen großen Betriebssystemen und Browsern, einschließlich Schwachstellen, die jahrzehntelanger menschlicher Überprüfung entgangen sind.
Anthropic verweigerte die öffentliche Freigabe des Modells mit der eigenen Begründung, „die Folgen für Wirtschaft, öffentliche Sicherheit und nationale Sicherheit könnten schwerwiegend sein“. Das britische AI Security Institute (AISI) bestätigte die Einschätzung: Mythos ist bei Cyber-Offensive substanziell fähiger als jedes zuvor getestete Modell.
In einem Essay im Spectator zieht die Organisation ControlAI nun eine beunruhigende Parallele: Die Regierungen machen bei KI denselben Fehler wie bei der Corona-Pandemie.
Der Fehler, den wir wiederholen
Im Februar 2020 starrten Regierungen und Medien auf die aktuellen Fallzahlen – überschaubar, beherrschbar, kein Grund zur Panik. Epidemiologen warnten unterdessen vor der Verdopplungsrate: Ein Virus, das sich alle paar Tage verdoppelt, sieht beherrschbar aus – bis das Gesundheitssystem kollabiert. Vier Wochen später stand die Welt still.
ControlAI argumentiert, dass wir bei KI exakt denselben Denkfehler machen. Die Regierung reagiert auf Mythos mit einem Blogpost des AISI und einem Brief des Technologieministers, der Unternehmen zu besseren Cybersecurity-Maßnahmen rät. Was sie übersieht: Die Länge der Aufgaben, die KI-Systeme autonom erledigen können, verdoppelt sich laut METR alle paar Monate. Was heute wie ein Cybersecurity-Problem aussieht, ist morgen ein existenzielles.
Das eigentlich Neue an Mythos
Der Kern des Spectator-Essays ist nicht, dass Mythos Schwachstellen findet. Er ist, wie es das tut: autonom. Das System identifiziert Sicherheitslücken, entwickelt Exploits und verknüpft sie netzwerkübergreifend – ohne menschliche Anleitung. Wir treten in eine Ära ein, in der KI-Systeme selbst die Bedrohung sind, nicht nur die Werkzeuge von Angreifern.
Und das ist der Punkt, den ControlAI in den Vordergrund stellt: Dies ist die am wenigsten fähige Version, die diese Systeme jemals sein werden. Wenn die Fähigkeiten sich weiter alle paar Monate verdoppeln, stehen wir nicht vor einem graduellen Problem, sondern vor einer exponentiellen Kurve – mit superintelligenter KI innerhalb der nächsten zwei bis fünf Jahre, wie viele Experten warnen.
Churchills Weitsicht – und unser Mangel daran
Der Essay erinnert an einen historischen Präzedenzfall: 1924, als Artilleriegranaten die zerstörerischste Waffe der Welt waren, veröffentlichte Winston Churchill einen Essay mit dem Titel „Shall we all commit suicide?“. Er argumentierte, die Wissenschaft stehe kurz davor, Waffen zu produzieren, gegen die der Völkerbund machtlos sein würde. Er schrieb dies 20 Jahre vor Hiroshima.
Sieben Jahre später, in „Fifty Years Hence“, beschrieb Churchill mit bemerkenswerter Präzision die Physik der Kernfusion – lange bevor sie technisch realisierbar war. „Es gibt unter Wissenschaftlern keine Frage, dass diese gigantische Energiequelle existiert“, schrieb er. „Was fehlt, ist das Streichholz, um das Feuer zu entfachen.“ Dieses Streichholz wurde 1945 gefunden.
ControlAI stellt die Frage, die Churchill sich damals stellte: Wenn die Wissenschaftler selbst – Nobelpreisträger und KI-CEOs eingeschlossen – vor einem Auslöschungsrisiko für die Menschheit warnen, warum handeln Regierungen dann, als ginge es um ein gewöhnliches Technologieregulierungsthema?
Großbritanniens ungenutzte Vorreiterrolle
Großbritannien wäre in einer einzigartigen Position zu handeln: Es richtete den ersten globalen KI-Sicherheitsgipfel in Bletchley Park aus. Über 100 Parlamentarier unterstützten eine Erklärung von ControlAI, die superintelligente KI als nationale und globale Sicherheitsbedrohung anerkennt. Das House of Lords führte im Januar 2026 allein zwei substanzielle Debatten zu dem Thema, darunter über ein mögliches internationales Moratorium.
Doch die Exekutive, so der Vorwurf, hat den Mut zum entschlossenen Handeln verloren. Die Reaktion auf Mythos – Blogposts und Beratungsschreiben – steht in keinem Verhältnis zur Tragweite der Entwicklung.
Was ControlAI fordert
Die Forderungen des Essays sind radikal, aber konsequent: Superintelligente KI müsse als das behandelt werden, was sie ist – ein nationales und globales Sicherheitsrisiko höchster Ordnung. Das bedeute: die Entwicklung superintelligenter KI im eigenen Land zu unterbinden und eine internationale Koalition für ein globales Verbot aufzubauen.
Die Alternative, so der Essay, sei nicht weniger drastisch: „Wenn wir es nicht tun, wird es keine Gelegenheit für Untersuchungen, Entschuldigungen oder Versprechen geben, es beim nächsten Mal besser zu machen. Es wird nicht einmal jemanden geben, der die Schuld tragen könnte.“
Einordnung: Zwischen Alarmismus und Notwendigkeit
Die Warnungen von ControlAI sind zugespitzt – bewusst. Aber sie sind nicht aus der Luft gegriffen. Dass Anthropic ein Modell aus Sicherheitsgründen zurückhält, ist ein Novum in der KI-Branche und bestätigt implizit die Ernsthaftigkeit der Gefahr. Wenn die Erbauer selbst sagen: „Das ist zu gefährlich zum Veröffentlichen“, sollten politische Entscheidungsträger zumindest hinhören.
Gleichzeitig bleibt die Frage, ob ein Verbot praktisch durchsetzbar wäre – angesichts des geostrategischen Wettbewerbs zwischen den USA und China, den wir auch in den Forderungen nach einer KI-Entwicklungspause immer wieder diskutiert sehen. Und ob die exponentielle Verbesserung tatsächlich so weitergeht, wie die METR-Daten suggerieren, ist Gegenstand lebhafter Debatten unter Forschern.
Was der Spectator-Essay jedoch richtig erfasst: Wir diskutieren KI-Risiken oft im Modus des graduellen Managements, während die Technologie sich exponentiell entwickelt. Das ist, als würde man versuchen, eine Flutwelle mit einem Eimer zu bekämpfen.
Fazit: Das Zeitfenster schließt sich
Der Essay von ControlAI ist unbequem, aber notwendig. Er zwingt zu der Frage, ob unsere politischen Institutionen für exponentielle Technologieentwicklungen überhaupt ausgelegt sind – und was passiert, wenn sie es nicht sind. Die gute Nachricht: Das Zeitfenster zum Handeln ist noch offen. Die schlechte: Es schließt sich mit jeder Verdopplung der KI-Fähigkeiten ein Stück weiter.
Churchill schrieb 1924 zwanzig Jahre vor Hiroshima. Wir haben dieses Mal vielleicht keine zwanzig Jahre.
FAQ: KI-Auslöschungsrisiko und Claude Mythos
Was ist Claude Mythos?
Claude Mythos 2 Preview ist ein nicht veröffentlichtes Frontier-KI-Modell von Anthropic, das im Rahmen von Project Glasswing angekündigt wurde. Es kann autonom Sicherheitslücken in Betriebssystemen und Browsern finden und exploitieren – einschließlich Schwachstellen, die jahrzehntelanger menschlicher Prüfung entgangen sind. Anthropic hält das Modell aufgrund der Risiken zurück und setzt es nur defensiv ein.
Wer steckt hinter dem Spectator-Essay?
Der Essay stammt von ControlAI, einer britischen Organisation, die sich für die Regulierung und Kontrolle superintelligenter KI einsetzt. Über 100 britische Parlamentarier haben eine Erklärung der Organisation unterzeichnet, die KI-Auslöschungsrisiken anerkennt.
Wie schnell entwickelt sich KI derzeit?
Laut METR (Model Evaluation & Threat Research) verdoppelt sich die Länge der Aufgaben, die KI-Systeme autonom erledigen können, derzeit alle paar Monate. Bei anhaltendem Trend könnte superintelligente KI innerhalb von zwei bis fünf Jahren Realität werden, warnen zahlreiche Experten.
Ist ein internationales KI-Verbot realistisch?
Das ist die zentrale Kontroverse. Befürworter argumentieren mit der existenziellen Bedrohung; Kritiker verweisen auf den US-China-Wettbewerb und mangelnde Durchsetzbarkeit. Bisher gibt es keinen internationalen Konsens – das House of Lords debattierte jedoch bereits über ein Moratorium.
Warum veröffentlicht Anthropic Mythos nicht?
Anthropic selbst begründet die Zurückhaltung mit potenziell schwerwiegenden Folgen für Wirtschaft, öffentliche Sicherheit und nationale Sicherheit. Das britische AISI bestätigte die außergewöhnlichen Cyber-Offensivfähigkeiten. Es ist das erste Mal, dass ein führendes KI-Unternehmen ein Modell aus Sicherheitsgründen aktiv zurückhält.


