Künstliche Intelligenz verändert die Gesellschaft – aber wer bestimmt, wie? Eine neue groß angelegte Studie der RWTH Aachen zeigt: KI-Experten und die breite Öffentlichkeit bewerten Chancen und Risiken von KI fundamental anders. Diese Wahrnehmungslücke bedroht die gesellschaftliche Akzeptanz von KI.
Was ist passiert? Die Studie im Überblick
Die Forscher um Philipp Brauner haben 1.110 Deutsche aus der Allgemeinbevölkerung und 119 akademische KI-Experten zu 71 Zukunftsszenarien befragt. Die Szenarien deckten ein breites Spektrum ab: KI in der Medizin, am Arbeitsmarkt, in der Justiz, in der Kunst, im Krieg. Jedes Szenario wurde nach vier Dimensionen bewertet: Wahrscheinlichkeit, Risiko, Nutzen und Gesamtwert.
Das Ergebnis ist so eindeutig wie alarmierend:
- Experten sehen mehr Chancen als Risiken. Sie schätzen die Eintrittswahrscheinlichkeit von KI-Szenarien höher ein, nehmen geringere Risiken wahr und berichten größere Vorteile.
- Die Öffentlichkeit gewichtet Risiken doppelt so stark. Bei der Gesamtbewertung erklärte die Risikowahrnehmung bei der Öffentlichkeit fast 50 % der Varianz (β = 0,703), bei Experten dagegen nur 13 % (β = 0,361). Experten lassen sich primär vom Nutzen leiten (β = 0,623).
- 96,5 % der Werturteile werden durch das Zusammenspiel von wahrgenommenem Risiko (negativ) und Nutzen (positiv) erklärt. Die Wahrscheinlichkeit eines Szenarios spielt überraschenderweise kaum eine Rolle.
Interessant: In einigen Bereichen, etwa KI-gestützte medizinische Diagnosen oder Waffensysteme, sind sich beide Gruppen relativ einig. Richtig auseinander geht es bei politischen Entscheidungen und Justiz-Anwendungen – genau dort, wo KI demokratische Prozesse berührt.
Warum sorgt das für Diskussionen?
Die Studie führt den Begriff der „Procrustean AI“ ein – benannt nach dem mythologischen Räuber Prokrustes, der seine Opfer gewaltsam in ein festes Bett passte. Die Warnung: Wenn KI-Entwickler primär ihre eigenen Wertvorstellungen in Systeme einfließen lassen, entstehen KI-Systeme, die an den tatsächlichen Bedürfnissen der Bevölkerung vorbeigehen.
Das ist kein akademisches Glasperlenspiel. Es berührt eine fundamentale Machtfrage: Wer bestimmt eigentlich, wie KI unsere Gesellschaft verändern darf?
Die Autoren mahnen: Die beobachtete Wahrnehmungslücke sei kein reines Kommunikationsproblem, sondern ein strukturelles. KI-Forschung, -Implementierung und -Regulierung drohen die risikobezogenen Prioritäten der Bevölkerung systematisch zu vernachlässigen. Wenn diejenigen, die KI-Systeme bauen und regulieren, Risiken grundsätzlich anders gewichten als diejenigen, die von diesen Systemen betroffen sind, entsteht ein gefährliches Demokratiedefizit.
Einordnung: Was bedeutet das praktisch?
Die Vertrauensfrage ist entscheidend – und sie ist beschädigt
Hier knüpft die Studie an eine breitere Entwicklung an: Das Vertrauen in KI-Systeme wächst – während das Vertrauen zwischen Menschen schwindet.
Yuval Noah Harari brachte es in einem viel beachteten Gespräch auf den Punkt: Algorithmen in sozialen Medien verstärken negative Emotionen wie Wut und Angst gezielt, um Aufmerksamkeit zu binden. Das Ergebnis ist eine „digitale Spaltung“: Wir vertrauen zunehmend den Algorithmen, aber immer weniger einander. Diese Dynamik verschärft die in der Studie identifizierte Wahrnehmungslücke: Wenn die Öffentlichkeit ohnehin skeptisch ist und diese Skepsis durch tägliche Erfahrungen mit manipulativen Algorithmen bestätigt wird, steht jedes neue KI-System unter Generalverdacht – selbst dort, wo es objektiv nützlich wäre.
Nicht die Technologie ist das Problem – sondern wer sie gestaltet
Die Studie zeigt deutlich: Es geht nicht um Technologiefeindlichkeit auf der einen oder blinden Techno-Optimismus auf der anderen Seite. Es geht um unterschiedliche Bewertungsrahmen, die durch unterschiedliche Lebensrealitäten geprägt sind.
Ein KI-Experte, der täglich mit den technischen Möglichkeiten arbeitet, bewertet ein Szenario wie „KI trifft gerichtliche Entscheidungen“ naturgemäß anders als ein Bürger, der schon einmal mit einem intransparenten Behörd-Algorithmus zu tun hatte. Das Problem entsteht, wenn eine Seite die Perspektive der anderen ignoriert – genau das, was die Wahrnehmungslücke beschreibt.
Wie ernst die Lage ist, zeigt ein Blick auf verwandte Forschung: KI-Schwarm-Manipulation bedroht bereits heute demokratische Prozesse. Die in der Studie identifizierten Spannungspunkte – politische Entscheidungen, Justiz, Militär – sind genau die Bereiche, in denen automatisierte Manipulation am gefährlichsten ist.
Der Arbeitsmarkt als Lackmustest
Die Skepsis der Öffentlichkeit ist nicht unbegründet. Auch Untersuchungen zum KI-Arbeitsmarkt zeigen: Während Experten die komplementären Effekte betonen (KI macht Arbeiter produktiver, schafft neue Jobs), sieht die Bevölkerung vor allem die Substitutionseffekte (KI ersetzt menschliche Arbeit direkt).
Beide Perspektiven haben ihre Berechtigung. KI kann bestimmte Aufgaben tatsächlich direkt ersetzen – aber sie kann auch die Produktivität von Arbeitnehmern steigern und durch Unternehmenswachstum neue Jobs schaffen. Die Wahrheit liegt wie so oft in der Mitte. Problematisch wird es, wenn eine Seite die andere systematisch ausblendet.
Drei Hebel gegen die Wahrnehmungslücke
Aus der Studie und den verwandten Diskursen lassen sich drei konkrete Handlungsfelder ableiten:
- Partizipative Governance ernst nehmen. Die Autoren fordern zu Recht, dass Betroffene zu Beteiligten werden müssen. Konkret bedeutet das: Bürgerräte zu KI-Themen, verpflichtende Laienbeiräte in großen KI-Forschungsprojekten, öffentliche Konsultationen vor regulatorischen Weichenstellungen. In Ländern wie Frankreich und Taiwan gibt es dafür bereits vielversprechende Modelle.
- KI-Bildung massiv ausbauen. Die Studie zeigt, dass Alter, Geschlecht und KI-Readiness die Wahrnehmung signifikant beeinflussen. Ohne flächendeckende KI-Grundbildung – an Schulen, in Betrieben, in der Erwachsenenbildung – bleibt die Wahrnehmungslücke auch eine Wissenslücke. Das gilt besonders für Sicherheitsfragen: Wer KI-Risiken nicht versteht, kann sie nicht kompetent bewerten.
- Risikokommunikation radikal verbessern. Wenn die Öffentlichkeit Risiken doppelt so stark gewichtet wie Experten, reicht es nicht, auf „die Fakten“ zu verweisen. Risikokommunikation muss emotionale und ethische Dimensionen ernst nehmen – nicht als irrational abtun. Das bedeutet: zuhören, validieren, einordnen. Nicht: dozieren.
Zwischenfazit: Die KI-Wahrnehmungslücke ist kein Luxusproblem für Sonntagsreden. Sie ist ein handfestes Implementierungsrisiko. Wer KI-Systeme baut, die an den Sorgen der Menschen vorbeigehen, wird keine gesellschaftliche Akzeptanz finden – und scheitert letztlich am Markt.
Fazit
Die Brauner-Studie ist ein Weckruf. Sie belegt mit soliden empirischen Daten, was viele bereits ahnen: KI-Experten und die Öffentlichkeit reden systematisch aneinander vorbei. Die Good News: In den Daten steckt auch eine Blaupause für bessere Governance. Die identifizierten „Tension Points“ – politische Entscheidungen, Justiz, militärische Anwendungen – zeigen genau, wo der Dialog am dringendsten ist.
Die Frage ist nicht, ob KI unsere Gesellschaft verändert. Die Frage ist, ob wir diesen Wandel gemeinsam gestalten – oder ob eine kleine Expertengruppe ihn im Stillen durchzieht. Die Studie macht deutlich: Letzteres wird scheitern.
FAQ: KI-Wahrnehmungslücke
Was ist die KI-Wahrnehmungslücke?
Die KI-Wahrnehmungslücke (AI Perception Gap) beschreibt die systematische Diskrepanz in der Bewertung von KI-Chancen und -Risiken zwischen akademischen KI-Experten und der breiten Öffentlichkeit. Experten sehen tendenziell höhere Wahrscheinlichkeiten, geringere Risiken und größere Vorteile; die Öffentlichkeit gewichtet Risiken etwa doppelt so stark.
Wer hat die Studie durchgeführt?
Die Studie „Charting the AI perception gap“ stammt von Philipp Brauner, Felix Glawe, Gian Luca Liehner, Luisa Vervier und Martina Ziefle (RWTH Aachen University). Sie ist im April 2026 in AI & SOCIETY (Springer) Open Access erschienen. Zum Volltext | arXiv-Preprint
Was bedeutet „Procrustean AI“?
Der Begriff ist eine Metapher aus der griechischen Mythologie: Prokrustes war ein Räuber, der seine Opfer gewaltsam in ein Bett passte – indem er sie streckte oder Gliedmaßen abschnitt. „Procrustean AI“ meint KI-Systeme, die von Entwicklern an deren eigene Wertvorstellungen und Risikotoleranz angepasst werden, ohne die Bedürfnisse und Risikowahrnehmungen der betroffenen Bevölkerung zu berücksichtigen.
Warum vertraut die Öffentlichkeit KI weniger als Experten?
Die Studie identifiziert mehrere Faktoren: geringere Technologiekenntnisse, stärkere emotionale Risikobewertung, alltägliche Negativerfahrungen mit Algorithmen (z. B. in sozialen Medien) und einen grundsätzlich anderen Bewertungsrahmen, der Risiken stärker gewichtet als Nutzen. Hinzu kommt: Wo Algorithmen bereits Misstrauen gesät haben, wird jedes neue KI-System kritischer beäugt.
Was kann man gegen die Wahrnehmungslücke tun?
Die Autoren empfehlen drei zentrale Maßnahmen: partizipative Governance-Strukturen (Bürgerbeteiligung an KI-Entscheidungen), breite KI-Bildungsinitiativen auf allen Ebenen und eine verbesserte Risikokommunikation, die die Sorgen der Bevölkerung ernst nimmt, statt sie als irrational abzutun.
Quellen: Brauner et al. (2026), „Charting the AI perception gap“, AI & SOCIETY; Yuval Noah Harari via SkillDiscs; KI-Arbeitsmarkt-Forschung via SkillDiscs.


