China: Wenn Chefs ihre Mitarbeiter zwingen, die eigenen KI-Ersatzkräfte zu trainieren

In China entsteht ein bizarrer neuer Arbeitsalltag: Chefs weisen ihre Tech-Mitarbeiter an, detaillierte Handbücher ihrer eigenen Tätigkeiten zu schreiben – damit KI-Agenten sie ersetzen können. Ein virales GitHub-Tool und eine wachsende Gegenbewegung zeigen, wie tief der Riss durch die chinesische Tech-Belegschaft bereits geht.

Was ist passiert?

Ein Bericht des MIT Technology Review zeichnet ein beunruhigendes Bild der chinesischen Tech-Branche: Immer mehr Arbeitgeber fordern ihre Beschäftigten auf, ihre täglichen Arbeitsabläufe penibel zu dokumentieren – nicht etwa zur Qualitätssicherung, sondern mit dem erklärten Ziel, diese Prozesse an KI-Agenten zu übergeben. Als Plattform dient dabei häufig OpenClaw, das in China einen beispiellosen Boom erlebt – so sehr, dass Regierungsbehörden und Staatsunternehmen ihre Mitarbeiter bereits vor der Nutzung warnen.

Die Situation erinnert an das US-Startup Mercor, das seit Jahren Arbeitsuchende anheuert, um KI-Modelle zu trainieren, die sie ersetzen sollen. In China hat der Trend nun eine neue, verstörende Eskalationsstufe erreicht: Statt externer Trainer sind es die eigenen Angestellten, die den Stecker für ihren Job selbst mitdokumentieren.

„Colleague Skill“: Das Tool, das aus Kollegen KI-Handbücher macht

Auslöser der aktuellen Debatte ist das GitHub-Projekt „Colleague Skill“ von Tianyi Zhou, einem Ingenieur am Shanghai Artificial Intelligence Laboratory. Ursprünglich als ironischer Kommentar zu den KI-bedingten Entlassungswellen gedacht, ging das Tool auf chinesischen Social-Media-Plattformen viral.

Die Funktionsweise ist ebenso simpel wie beunruhigend: Man gibt den Namen eines Kollegen ein, fügt grundlegende Profildaten hinzu – und das Tool importiert automatisch den Chat-Verlauf und Dateien aus Lark und DingTalk, den verbreitetsten Workplace-Apps in China. Innerhalb von Minuten generiert es ein Wiederverwendbares Handbuch, das die Aufgaben, Arbeitsweisen und sogar persönliche Eigenheiten der Person beschreibt – maßgeschneidert für einen KI-Agenten zur Nachahmung.

Amber Li, eine 27-jährige Tech-Mitarbeiterin aus Shanghai, testete das Tool aus Neugier an einem ehemaligen Kollegen. Das Ergebnis überraschte sie: „Es ist erschreckend gut. Es erfasst sogar die kleinen Eigenheiten der Person – wie sie reagiert, ihre Zeichensetzungsgewohnheiten.“ Mit dem generierten Skill kann Li nun einen KI-Agenten als neuen „Kollegen“ einsetzen, der ihr beim Code-Debugging hilft und sofort antwortet. „Es fühlte sich unheimlich und unbehaglich an“, sagt sie.

Warum Chefs Mitarbeiter zur Selbstautomatisierung drängen

Die Motivation der Arbeitgeber geht über reines Trend-Hopping hinaus. Hancheng Cao, Assistenzprofessor an der Emory University, erklärt gegenüber dem MIT Technology Review: Unternehmen gewinnen durch diese Praxis nicht nur interne Erfahrung mit KI-Tools, sondern auch umfassende Daten über Mitarbeiter-Know-how, Entscheidungsmuster und Arbeitsabläufe. Das helfe Firmen zu erkennen, welche Teile der Arbeit standardisierbar sind – und welche noch menschliches Urteilsvermögen erfordern.

Für die Beschäftigten fühlt sich der Prozess jedoch zutiefst entfremdend an. Ein Software-Ingenieur, der anonym mit dem MIT Tech Review sprach, trainierte eine KI auf seinen eigenen Arbeitsabläufen und beschrieb die Erfahrung als reduktiv: Seine Arbeit sei in austauschbare Module zerlegt worden – und er selbst fühle sich dadurch ersetzbarer. Auf Social Media reagieren chinesische Tech-Arbeiter mit Galgenhumor. Ein Nutzer auf Rednote kommentierte: „Ein kalter Abschied lässt sich in warme Token verwandeln“ – wer zuerst seine Kollegen in Aufgaben destilliere, überlebe vielleicht selbst ein wenig länger.

Die Gegenbewegung: Sabotage-Tools und digitaler Widerstand

Der Automatisierungsdruck hat eine kreative Gegenbewegung ausgelöst. Koki Xu, eine 26-jährige KI-Produktmanagerin aus Peking, veröffentlichte Anfang April ein „Anti-Destillation“-Tool auf GitHub. Das Programm, das sie in etwa einer Stunde baute, sabotiert gezielt die Erstellung von KI-Workflow-Handbüchern.

Das Tool bietet drei Eskalationsstufen – leicht, mittel und schwer – je nachdem, wie genau der Vorgesetzte den Prozess überwacht. Es schreibt Arbeitsanweisungen in generische, nicht-umsetzbare Sprache um, sodass der resultierende KI-Stand-in möglichst nutzlos bleibt. Ein Video, das Xu über das Projekt veröffentlichte, wurde über fünf Millionen Mal geliked.

„Ich wollte ursprünglich einen Meinungsartikel schreiben“, sagt Xu, „aber ich entschied, dass es nützlicher wäre, etwas zu bauen, das sich dagegen stemmt.“ Ihr Tool wirft auch juristische Fragen auf: Während Firmen argumentieren können, dass Chat-Verläufe und Materialien auf Arbeitslaptops Unternehmenseigentum sind, erfasst Colleague Skill auch Persönlichkeitsmerkmale, Tonfall und Urteilsvermögen – die Eigentumsfrage ist hier alles andere als klar.

Was bedeutet das für den Arbeitsmarkt?

Die Ereignisse in China sind kein isoliertes Phänomen. Wir berichteten bereits darüber, wie Mitarbeiter im Büro ihre eigenen KI-Ersatzkräfte trainieren – ein Trend, der längst nicht mehr auf China beschränkt ist. Auch chinesische Gerichte befassen sich bereits mit den rechtlichen Folgen KI-bedingter Kündigungen.

Bemerkenswert ist der Widerspruch, in dem sich viele chinesische Tech-Worker befinden: Sie sind oft begeisterte Early Adopter. Koki Xu selbst hat sieben OpenClaw-Agenten auf ihren Geräten eingerichtet. Die Technologie lehnen sie nicht ab – sie wehren sich gegen den Verlust von Kontrolle und Würde im Prozess.

Amber Li bringt das Dilemma auf den Punkt: „Ich habe nicht das Gefühl, dass mein Job unmittelbar gefährdet ist. Aber ich spüre, dass mein Wert billiger gemacht wird – und ich weiß nicht, was ich dagegen tun soll.“

Fazit: Die stille Entwertung menschlicher Arbeit

Die Vorgänge in China zeigen eine neue Qualität der KI-Transformation am Arbeitsplatz. Es geht nicht mehr nur um die Frage, ob Jobs wegfallen – sondern darum, wer die Kontrolle über den Prozess behält und wie viel Würde dabei erhalten bleibt. Der Zwang, die eigene Abschaffung zu dokumentieren, stellt eine psychologische Grenzüberschreitung dar, die über rein ökonomische Ängste hinausgeht.

Die Sabotage-Tools von Entwicklern wie Koki Xu sind dabei mehr als nur digitale Streiche. Sie sind ein Signal: Arbeitnehmer sind nicht bereit, sich widerstandslos in redundante Biomasse verwandeln zu lassen. Die Frage, die sich in China jetzt stellt, wird bald überall relevant sein: Wer gestaltet die Spielregeln der KI-Transformation – und wer wird nur zum Datenlieferanten für den eigenen Ersatz?

FAQ: Chinesische Arbeitnehmer und KI-Ersatzkräfte

Was ist Colleague Skill?

Colleague Skill ist ein GitHub-Tool, das automatisch Chat-Verläufe und Dateien aus chinesischen Workplace-Apps wie Lark und DingTalk importiert und daraus detaillierte Arbeitshandbücher generiert. Diese können von KI-Agenten genutzt werden, um die betreffende Person zu imitieren. Es wurde ursprünglich als Satire-Projekt gestartet, ging aber viral und löste eine hitzige Debatte aus.

Warum dokumentieren chinesische Arbeitnehmer ihre eigenen Jobs?

Arbeitgeber in China drängen ihre Beschäftigten zunehmend dazu, Arbeitsabläufe zu dokumentieren, um diese an KI-Agenten zu übergeben. Dahinter stehen wirtschaftliche Anreize – Automatisierung senkt Kosten –, aber auch strategische Ziele: Firmen wollen verstehen, welche Prozesse standardisierbar sind und welche menschliches Urteilsvermögen erfordern.

Was ist das „Anti-Destillation“-Sabotage-Tool?

Die Pekinger KI-Produktmanagerin Koki Xu entwickelte ein Tool, das Arbeitsanweisungen in generische, nicht-umsetzbare Sprache umschreibt, um die Erstellung nützlicher KI-Stand-ins zu sabotieren. Es bietet drei Eskalationsstufen und wurde über fünf Millionen Mal auf Social Media geliked.

Sind KI-Agenten bereits in der Lage, menschliche Arbeit vollständig zu ersetzen?

Nach aktuellen Erkenntnissen noch nicht. Laut MIT Tech Review ist der praktische Nutzen von KI-Agenten im Geschäftskontext bisher begrenzt. Sie erfordern ständige Überwachung und bleiben unzuverlässig. Unternehmen hoffen, diese Lücke durch detaillierte Workflow-Dokumentationen zu schließen.

Welche Rolle spielt OpenClaw dabei?

OpenClaw ist die Plattform, über die viele dieser KI-Agenten in China betrieben werden. Die Software hat in China einen enormen Boom erlebt, so dass Regierungsbehörden und Staatsunternehmen ihre Mitarbeiter bereits vor Sicherheitsrisiken bei der Nutzung warnen.

Kommentar verfassen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert