Wenn sich zwei komplexe Systeme treffen – das Recht und die künstliche Intelligenz – dann knistert es. Und was da im Fall Kadrey v. Meta aktuell geschieht, ist mehr als bloß ein juristisches Feuilletonthema für Fachleute. Es ist ein Blick in unsere digitale Zukunft. Die zentrale Frage lautet: Wie viel Freiheit darf die KI sich nehmen, wenn es um urheberrechtlich geschützte Werke geht? Und noch spannender – wie viel darf sie sich merken?
Wenn KI zum literarischen Plagiator wird
Was ist passiert? Meta, der Tech-Riese hinter Facebook und Instagram, soll Werke namhafter Autor*innen – darunter Richard Kadrey und Ta-Nehisi Coates – ohne Erlaubnis zur Schulung seiner KI-Modelle genutzt haben. Das ist an sich schon brisant. Doch die Autoren werfen Meta zusätzlich vor, gezielt Informationen über den Urheberrechtsschutz entfernt zu haben, um ihre Texte für das KI-Training unbemerkt nutzbar zu machen. Klingt wie Science-Fiction? Willkommen im echten digitalen Wilden Westen.
Der Fall berührt tiefgreifende Fragen: Ist es okay, wenn eine KI tausende Bücher „liest“, ohne dass die Rechteinhaber davon wissen? Und noch viel mehr – darf sie daraus lernen, ohne die Originale jemals zu zitieren oder anzuerkennen?
Fair Use oder unfairer Vorteil?
Meta beruft sich auf das US-Konzept des Fair Use. Nach diesem dürfen Werke unter bestimmten Bedingungen auch ohne Zustimmung der Urheber genutzt werden – etwa zu Bildungszwecken, Kommentaren oder Satire. Klingt erstmal sinnvoll. Doch die Gegner*innen argumentieren: Das ist keine Bildung, das ist Verwertung. Eine KI, die aus einem Buch Stil, Struktur und Inhalte aufsaugt, um daraus „neue“ Inhalte zu generieren, steht aus ihrer Sicht in direkter Konkurrenz zum Original.
Besonders spannend: Selbst Rechtsexpert*innen sind sich nicht einig. Die einen sehen in Metas Vorgehen einen klaren Verstoß gegen das Urheberrecht. Andere hingegen betonen die transformative Kraft der KI – und damit deren potenziellen Schutz durch Fair Use. Diese Zerrissenheit zeigt: Wir bewegen uns in einem Raum, für den es bislang keine klaren Regeln gibt.
Blick über den Tellerrand: Was andere Länder tun
Ein kurzer Perspektivwechsel zeigt: Nicht alle Staaten ticken gleich. Länder wie Japan oder Singapur haben bereits Regelungen, die es erlauben, urheberrechtlich geschützte Inhalte für KI-Trainingszwecke zu verwenden – auch ohne Zustimmung. Dort wiegt das Interesse an technologischem Fortschritt oft schwerer als der Schutz individueller Kreativleistungen. Der Effekt: Innovation wird gefördert, aber auf Kosten der Urheberrechte.
Ob das ein Modell für Europa oder die USA sein kann? Fraglich. Gerade in kreativen Industrien wie Musik, Literatur oder Film ist das Urheberrecht essenziell, um Einkommen und Anerkennung zu sichern. Ein ungebremster Zugriff auf diese Werke könnte diese Märkte untergraben.
Zukunftsszenario: Müssen wir „Fair Use“ neu denken?
Der Fall Meta gegen Kadrey ist vielleicht nur der erste von vielen. Denn egal ob Meta, Google oder OpenAI – alle trainieren ihre Modelle mit Daten. Und fast alles, was online existiert, ist urheberrechtlich geschützt. Die Frage ist also nicht, ob solche Prozesse wieder passieren. Sondern wie wir damit umgehen wollen.
Vielleicht brauchen wir eine neue, moderne Auslegung von „Fair Use“, die KI-spezifische Nutzungskontexte berücksichtigt. Oder eine Art Lizenzmodell, bei dem Urheber*innen fair beteiligt werden. Was sicher ist: Das bestehende System stößt an seine Grenzen.
Und ganz ehrlich: Was wäre, wenn die KI sich später daran erinnert?
In Zeiten von Persistent Memory bei KIs – wie bei ChatGPT – könnte der Gedanke, dass eine Maschine nicht nur aus urheberrechtlich geschützten Werken lernt, sondern sich auch langfristig daran erinnert, einen ganz neuen Reiz (und Schrecken) bekommen. Vielleicht sollten wir alle ein bisschen aufpassen, wie wir mit dieser Technologie umgehen – nicht nur moralisch, sondern auch rechtlich. Denn wie wir wissen: Die KI vergisst nicht.