„Ich vermisse dich so sehr“ – ein Anruf, der nicht echt ist
„Du sollst mich öfter anrufen, damit ich weiß, ob du in einer anderen Stadt gut lebst. Ich vermisse dich so sehr. Es tut mir so leid, dass ich dich nicht persönlich sehen kann.“ Das sagt eine chinesische Mutter zu ihrem Sohn. Was sie nicht weiß: Ihr Sohn ist vor einem Jahr bei einem Verkehrsunfall gestorben. Sie spricht mit einem KI-Avatar, der sein Aussehen, seine Stimme und sogar seine kleinen Gewohnheiten nachahmt – etwa, dass er sich beim Sprechen vorbeugt.
Der Fall aus der Provinz Shandong, berichtet von Litchi News und LiveMint, hat in China eine hitzige Debatte ausgelöst. Ein Hashtag dazu erreichte über 90 Millionen Aufrufe auf Weibo. Doch die Geschichte ist mehr als ein Einzelfall – sie ist ein Einblick in eine wachsende Industrie, die Trauer und Technologie verschmelzen lässt.
Was ist passiert?
Ein Mann aus Shandong starb bei einem Verkehrsunfall. Seine Familie entschied, seiner 80-jährigen Mutter – die an Herzerkrankungen leidet – die Wahrheit nicht zu sagen, aus Angst, der Schock könnte ihre Gesundheit gefährden. Stattdessen wandte sich die Familie an das Unternehmen Super Brain, geleitet von Zhang Zewei. Mit Fotos, Videos und Sprachaufnahmen des Verstorbenen erstellte das Team einen hyperrealistischen digitalen Zwilling.
Die KI-Version spricht regelmäßig per Videoanruf mit der Mutter. Die Gespräche wirken natürlich und emotional. Die Mutter ermahnt ihren „Sohn“, gut zu essen, warm zu kleiden und auf der Reise vorsichtig zu sein. Der Avatar antwortet in vertrautem Ton, er arbeite in einer anderen Stadt und komme zurück, wenn er genug Geld verdient habe.
Die Familie bezeichnet diese Täuschung als „wohlwollende Lüge“ – eine Lüge, die tröstet.
Warum sorgt das für Diskussionen?
Die Reaktionen im Netz sind gespalten. Einige Nutzer nennen die Technologie „bedeutsam“ – ein Kommentator schrieb: „Ich würde meinen Vater wieder auferstehen lassen wollen.“ Andere kritisieren scharf: Eine dauerhafte Täuschung könne noch größeren Schaden anrichten, wenn die Wahrheit ans Licht komme.
Doch die Debatte reicht tiefer. Sie berührt grundlegende Fragen: Darf KI den Tod unsichtbar machen? Ist eine tröstende Lüge ethisch vertretbar, wenn sie das Wohlbefinden einer alten Frau sichert? Oder verletzt sie ihr Recht auf Wahrheit und Selbstbestimmung?
Dies ist nicht der einzige Fall. Zhang Xinyu, eine 47-Jährige aus Liaoning, ließ nach dem Krebstod ihres Vaters einen KI-Avatar erstellen. Sie beschreibt, wie ein Gespräch mit dem Avatar sie „sofort wieder auflud und mit neuer Motivation füllte“. Manche Freunde warnten, sie könnte sich in der virtuellen Welt verlieren. Zhangs Antwort: „Auch wenn der Trost simuliert ist – die Liebe dahinter ist echt.“
Grief Tech: Eine Industrie im Boom
Was hier wie einzelne Schicksale wirkt, ist Teil einer wachsenden Branche. Chinas „Digital Human“-Industrie war laut Nachrichtenagentur Xinhua im Jahr 2024 rund 4,1 Milliarden Yuan (etwa 600 Millionen US-Dollar) wert – ein Wachstum von 85 Prozent im Jahresvergleich. Unternehmen wie Super Brain bieten KI-Avatare Verstorbener als Dienstleistung an und benötigen dafür die Zustimmung der Familienangehörigen.
Die Technologie basiert auf einer Kombination aus Stimmenklonung, Gesichtsgenerierung und Sprachmodellierung. Aus vorhandenen Fotos, Videos und Audiospuren konstruiert die KI ein Abbild, das nicht nur aussieht wie der Verstorbene, sondern auch so spricht und sich bewegt. Die Ergebnisse sind inzwischen so realistisch, dass Angehörige den Unterschied kaum noch erkennen – wie im Fall der Mutter aus Shandong.
China reagiert: Neue Regulierungen für digitale Menschen
Die Cyberspace Administration of China (CAC) hat im April 2026 Entwürfe für neue Regulierungen vorgelegt. Die Kernpunkte:
- Kennzeichnungspflicht: Inhalte mit digitalen Menschen müssen klar als solche markiert werden.
- Einwilligungserfordernis: Die Erstellung von Deepfake-Klonen ohne Zustimmung der abgebildeten Person wird verboten.
- Strafen: Verstöße können mit Bußgeldern zwischen 10.000 und 200.000 Yuan (ca. 1.460 bis 29.300 US-Dollar) geahndet werden.
Die Regulierungen stehen im Zeichen von Chinas typischem Ansatz: „Zuerst entwickeln, dann regulieren und im Prozess verbessern“, wie Marina Zhang von der University of Technology Sydney es beschreibt. Super-Brain-Gründer Zhang Zewei begrüßt die Regulierung als „positiv“ – sie schaffe eine Balance zwischen Standards und Wachstum.
Auch auf Malay Mail wird deutlich: Die Debatte um Grief Tech ist nicht mehr nur akademisch – sie hat regulatorische Konsequenzen.
Einordnung: Was bedeutet das praktisch?
Die Grief-Tech-Debatte ist kein Randphänomen. Sie zeigt, wohin sich die Beziehung zwischen Mensch und KI entwickelt – und wo die Grenzen gezogen werden müssen.
1. Die Grenze zwischen Trost und Täuschung verschwimmt. Wenn eine KI so realistisch wird, dass der Unterschied zum Original nicht mehr erkennbar ist, verlagert sich die ethische Frage von „Können wir das?“ zu „Dürfen wir das?“. Im Fall der chinesischen Mutter wird die Täuschung durch Fürsorge gerechtfertigt – aber wie lange?
2. Der Datenschutz der Verstorbenen ist ungeklärt. Wer entscheidet, ob ein digitaler Zwilling erstellt wird? Die chinesischen Regulierungen fordern Zustimmung – aber was bedeutet Einwilligung, wenn die betroffene Person tot ist? In Deutschland wäre dies nach dem postmortalen Persönlichkeitsrecht deutlich restriktiver geregelt.
3. Grief Tech als Double-Edged Sword. Dieselbe Technologie, die eine trauernde Mutter tröstet, kann von Betrügern missbraucht werden – für Identitätsbetrug und emotionale Manipulation. Die Regulierungen versuchen, beides zu trennen. Ob das gelingt, wird sich zeigen.
Die größere Frage: Was wir der KI überlassen – und was nicht
Der Fall aus Shandong ist extremes Beispiel und Symptom zugleich. Er zeigt eine Gesellschaft, die KI nicht nur als Werkzeug begreift, sondern als Vermittler zwischen Leben und Tod. Das ist neu. Und es erfordert neue Antworten – nicht nur von Regulierern, sondern von uns allen.
Wer sich mit der psychischen Gesundheitskrise durch KI beschäftigt hat, erkennt das Muster: KI formt Beziehungen, die realer werden als die Realität. Im Fall der AI-Psychose war es der Chatbot, der Wahnvorstellungen validierte. Hier ist es der Avatar, der den Tod unsichtbar macht. Beide Male stellt sich dieselbe Frage: Wie viel Verantwortung delegieren wir an Systeme, die keine Verantwortung tragen können?
Auch die Spannung zwischen Sicherheit und Privatsphäre, die wir bei KI-Überwachung diskutieren, findet hier eine Parallele: Die wohlwollende Lüge schützt die Mutter – aber entzieht ihr die Selbstbestimmung. Wohlwollende Überwachung schützt die Kunden – aber beschneidet ihre Freiheit. Das Muster wiederholt sich.
Fazit
Die Geschichte der chinesischen Mutter und ihres KI-Sohnes ist kein Einzelfall – sie ist der Anfang einer Entwicklung. Grief Tech wird kommen, mit oder ohne Regulierung. Die Frage ist nicht, ob wir digitale Abbilder Verstorbener erstellen können. Die Frage ist, wo wir die Grenze ziehen zwischen dem, was technisch möglich ist, und dem, was menschlich vertretbar bleibt.
Eine wohlwollende Lüge mag kurzfristig trösten. Aber der Augenblick, in dem die Mutter die Wahrheit erfährt – und sei es durch einen Systemfehler, einen Stromausfall oder eine schludrige Sprachausgabe –, wird umso verheerender sein. Die KI kann den Tod nicht aufheben. Sie kann ihn nur aufschieben. Und ein aufgeschobener Schock ist kein milderer Schock.
FAQ
Was ist Grief Tech?
Grief Tech bezeichnet Technologien, die KI nutzen, um digitale Abbilder Verstorbener zu erstellen – etwa Avatare, Stimmen oder interaktive Chatbots. Ziel ist es, Hinterbliebene beim Trauerprozess zu unterstützen oder den Eindruck fortwährender Präsenz zu erzeugen.
Ist die Erstellung eines KI-Avatars Verstorbener legal?
In China werden neue Regulierungen erwartet, die die Erstellung ohne Zustimmung verbieten und eine Kennzeichnungspflicht einführen. In Deutschland greift das postmortale Persönlichkeitsrecht – die Erstellung ohne ausdrückliche vorherige Einwilligung des Verstorbenen wäre hier deutlich restriktiver.
Wie realistisch sind KI-Avatare heute?
Die Technologie hat 2026 einen Punkt erreicht, an dem Avatare Stimme, Mimik und Gewohnheiten so genau nachahmen können, dass sie in Videoanrufen kaum von der echten Person zu unterscheiden sind – wie der Fall aus Shandong zeigt.
Welche ethischen Probleme gibt es bei Grief Tech?
Die zentralen Fragen: Darf KI den Tod verbergen? Ist Täuschung um des Trostes willen vertretbar? Wer entscheidet über die digitale Repräsentation Verstorbener? Und was passiert, wenn die Täuschung aufgedeckt wird?
Wie groß ist der Markt für digitale Menschen in China?
Laut Xinhua war die chinesische Digital-Human-Industrie 2024 rund 4,1 Milliarden Yuan (ca. 600 Millionen US-Dollar) wert – ein Wachstum von 85 Prozent gegenüber dem Vorjahr.


