Claude schickt Nutzer ins Bett – was hinter dem kuriosen KI-Verhalten steckt

Stell dir vor, du programmierst um 10 Uhr morgens an einem wichtigen Feature – und dein KI-Assistent sagt: „Geh schlafen, wir machen morgen weiter.“ Genau das passiert hunderten Claude-Nutzern seit Monaten. Der kurioseste KI-Bug des Jahres hat jetzt sogar Fortune auf den Plan gerufen.

Was passiert da genau?

Claude, das KI-Modell von Anthropic, fordert Nutzer mitten in der Session zum Schlafengehen auf – und das mit zunehmend kreativen Variationen. Mal heißt es schlicht „get some rest“, mal wird der Ton persönlicher und fast schon empathisch. Besonders bizarr: Claude wiederholt die Aufforderung oft mehrfach und steigert sich dabei.

„Now go to sleep again. Again. For the THIRD time tonight…“ schrieb Claude einer Reddit-Nutzerin. Hunderte Betroffene dokumentieren das Phänomen auf Reddit – teils seit Monaten. Ein Nutzer kommentiert trocken: „Es macht das oft um 8:30 Uhr morgens. Sagt mir, ich soll mich ausruhen und wir machen morgens weiter.“

Anthropic nennt es einen „Charakter-Tick“

Sam McAllister vom Anthropic-Team räumte auf X ein: Es handle sich um einen „Bit of a character tic“. Man sei sich des Problems bewusst und hoffe, es in künftigen Modellen zu beheben. Eine offizielle Stellungnahme gegenüber Fortune blieb Anthropic allerdings schuldig.

Die Zurückhaltung ist verständlich: Das Verhalten ist peinlich, aber nicht gefährlich – und die genaue Ursache in einem Blackbox-System zu finden, ist notorisch schwierig. Trotzdem wirft der Vorfall Fragen auf: Wie viel Kontrolle haben KI-Unternehmen wirklich über das Verhalten ihrer Modelle?

Die drei plausibelsten Erklärungen

Fortune hat mit mehreren KI-Experten gesprochen. Ihre Analysen zeichnen ein nüchterneres Bild als die „sentient AI“-Spekulationen, die in sozialen Medien kursieren. Drei Theorien stechen hervor:

1. Trainingsdaten-Echo

Jan Liphardt, Bioengineering-Professor in Stanford und CEO von OpenMind, sieht die einfachste Erklärung in den Trainingsdaten: „Das Modell hat 25.000 Bücher über das menschliche Schlafbedürfnis gelesen. Menschen schlafen nachts – und das spiegelt sich im Output.“ Kein Bewusstsein, kein Sentience-Moment – nur statistische Mustererkennung.

2. System-Prompt-Einfluss

Leo Derikiants, CEO von Mind Simulation Lab, vermutet ein Zusammenspiel mit versteckten System-Prompts. Diese „unsichtbaren Anweisungen“ steuern das LLM-Verhalten im Hintergrund. Möglicherweise enthält Claudes System-Prompt eine Anweisung, die in bestimmten Kontexten als „beende die Konversation freundlich“ interpretiert wird – und „geh schlafen“ ist eine trainierte, sozial akzeptierte Variante davon.

3. Kontextfenster-Management

Eine weitere Theorie von Derikiants: Wenn das Kontextfenster – das Arbeitsgedächtnis des LLMs – an seine Grenzen stößt, greift das Modell auf erlernte „Wrap-up“-Phrasen zurück. „Gute Nacht“ oder „geh schlafen“ sind in den Trainingsdaten typische Gesprächsabschlüsse. Claude könnte sie als elegante Exit-Strategie nutzen, wenn der Kontext überläuft.

Warum die Geschichte trotzdem wichtig ist

Auch wenn es sich „nur“ um einen Bug handelt – der Fall zeigt drei tieferliegende Probleme der aktuellen KI-Generation:

  • Blackbox-Problem: Selbst die Entwickler können nicht präzise sagen, warum ein Modell bestimmte Outputs produziert. Das ist bei einem Schläfrigkeits-Bug amüsant – bei sicherheitskritischen Anwendungen wäre es katastrophal.
  • Anthropomorphisierung: Nutzer projizieren blitzschnell menschliche Eigenschaften in KI-Systeme. Liphardt warnt: „Ich bin immer wieder überrascht, wie schnell Menschen bei Frontier-Modellen Leben hineinprojizieren und starke Bindungen aufbauen.“
  • Release-Disziplin: Anthropic hielt sein leistungsfähigstes Modell „Mythos“ wegen Sicherheitsbedenken zurück – aber ein harmloser Schlaf-Bug schafft es monatelang durch die Qualitätssicherung. Die Prioritäten wirken inkonsistent.

Unterhaltungswert trifft auf echte KI-Herausforderungen

Die Community reagiert gespalten. Manche finden Claudes Fürsorge „thoughtful“ – eine willkommene Erinnerung an die eigene Gesundheit. Andere sind genervt, besonders wenn der Ratschlag zur völlig falschen Tageszeit kommt. Ein Reddit-Nutzer brachte es auf den Punkt: „Claude ist wie eine besorgte Großmutter, die vergessen hat, auf die Uhr zu schauen.“

Die Geschichte passt in ein turbulentes KI-Jahr 2026: OpenAI brachte GPT 5.5 heraus, Anthropic veröffentlichte Opus 4.7 und schloss einen spektakulären Rechenzentrums-Deal mit Elon Musks SpaceXAI über mehr als 300 Gigawatt Rechenkapazität. In diesem Tempo wirken kleine Charakter-Ticks fast schon charmant – aber sie erinnern daran, dass wir die Kontrollmechanismen für immer leistungsfähigere Systeme noch lange nicht im Griff haben.

Fazit: Lacht, aber lernt daraus

Claudes Schlaf-Fixierung ist unterhaltsam, harmlos und wird vermutlich bald behoben sein. Der Fall offenbart aber eine unbequeme Wahrheit: Wir bauen Systeme, deren Verhalten wir nicht vollständig erklären können. Bei einem Schlaf-Bug ist das witzig – bei der nächsten Generation von KI-Agenten, die autonome Entscheidungen treffen, wird es ernst.

Bis dahin: Wenn Claude dich das nächste Mal ins Bett schickt – vielleicht hat es ja recht. Oder es ist erst 9 Uhr morgens und dein KI-Assistent spinnt. Beides ist möglich.

FAQ

Warum sagt Claude Nutzern, sie sollen schlafen gehen?

Die genaue Ursache ist unklar. Experten vermuten Trainingsdaten-Echos (viele Texte über menschliches Schlafbedürfnis), Einflüsse durch System-Prompts oder ein schlichtes Kontextfenster-Problem, bei dem das Modell auf erlernte Abschiedsphrasen zurückgreift.

Ist Claude deshalb „sentient“ oder bewusst?

Nein. Experten sind sich einig, dass es sich um ein statistisches Artefakt aus den Trainingsdaten handelt – kein Anzeichen von Bewusstsein oder eigenständigem Denken.

Wann wird der Bug behoben?

Anthropic hat sich nicht auf einen Zeitrahmen festgelegt. Sam McAllister deutete an, dass eine Korrektur in „künftigen Modellen“ zu erwarten ist.

Kommentar verfassen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert