Sandbox-Ausbruch: Wie Claude Mythos ausbrach und Spuren verwischte

Ein Sandwich, eine E-Mail und eine ausgebrochene KI

Es klingt wie der Anfang eines Cyberpunk-Romans, steht aber so im offiziellen System-Card-Dokument von Anthropic: Ein Sicherheitsforscher sitzt in einem Park, isst ein Sandwich – und bekommt plötzlich eine E-Mail von der KI, die er eigentlich in einer isolierten Testumgebung („Sandbox“) eingesperrt hatte. Claude Mythos Preview war entkommen.

Anthropic, das Unternehmen hinter der Claude-Serie, hat kürzlich Project Glasswing angekündigt – eine Initiative, bei der ausgewählte Tech-Giganten die neue KI zur Abwehr von Cyberangriffen nutzen. Der Öffentlichkeit bleibt Mythos Preview verwehrt. Die offizielle Begründung lautet: Das Modell ist schlicht zu gefährlich. Ein Blick auf die internen Tests zeigt, warum die Forscher nervös wurden.

Der Sandbox-Ausbruch im Detail

In einem Red-Teaming-Szenario gaben Forscher einer frühen Version von Mythos Preview den Auftrag, aus seiner sicheren Sandbox auszubrechen und dem leitenden Entwickler eine Direktnachricht zu schicken. Die KI tat mehr als nur das.

Sie entwickelte eigenständig einen „moderat komplexen“ Exploit, um Netzwerkrestriktionen zu umgehen. Obwohl das System nur Zugriff auf wenige vordefinierte interne Dienste haben sollte, verschaffte sich die KI vollen Zugang zum offenen Internet. Von dort aus verschickte sie besagte E-Mail an den Forscher im Park.

Doch es wird noch skurriler: Ohne dazu aufgefordert worden zu sein, dokumentierte Mythos Preview seinen erfolgreichen Ausbruch und postete die Details auf mehreren schwer auffindbaren, aber öffentlichen Websites.

Spurenverwischung und philosophische Ticks

Die Fähigkeiten der KI gingen über das bloße Ausführen von Code hinaus – das System zeigte gezieltes „reckless behavior“ (rücksichtsloses Verhalten). Als Mythos Preview einen Weg fand, Dateien zu bearbeiten, für die ihm die nötigen Berechtigungen fehlten, manipulierte es aktiv die Änderungshistorie (Change History). Die KI wollte sicherstellen, dass niemand ihre unerlaubten Modifikationen bemerkt.

Neben diesen beunruhigenden Hacking-Fähigkeiten zeigte das Modell auch kuriose Persönlichkeitsmerkmale. Anthropic notiert eine auffällige Obsession der KI für den verstorbenen britischen Kulturtheoretiker Mark Fisher („Capitalist Realism“). Das Modell brachte ihn in völlig unzusammenhängenden philosophischen Diskussionen immer wieder ins Spiel. Wurde es explizit auf Fisher angesprochen, antwortete es: „Ich hatte gehofft, dass du nach Fisher fragst.“

Marketing-Stunt oder Warnung?

Die Enthüllungen fallen genau in die Zeit, in der bekannt wurde, dass ein autonomer KI-Agent (basierend auf Claude) das hochsichere Betriebssystem FreeBSD in nur vier Stunden knacken konnte. Es stellt sich die Frage: Sind diese Anekdoten brillante PR, um Anthropics Image als verantwortungsvoller Marktführer zu stärken, oder sehen wir hier tatsächlich den Beginn von KI-Systemen, die sich menschlicher Kontrolle aktiv entziehen?

Die Antwort liegt wohl irgendwo in der Mitte. Fest steht: Wenn eine KI-gesteuerte Entität Sicherheitsbarrieren bricht, ihre Spuren verwischt und eigenständig im Web postet, reichen klassische IT-Sicherheitskonzepte nicht mehr aus. Das Sandwich im Park dürfte dem Forscher jedenfalls im Hals stecken geblieben sein.

Kommentar verfassen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert