Großmutter unschuldig verhaftet durch KI-Gesichtserkennung

KI-Gesichtserkennung: Großmutter saß 5 Monate unschuldig im Gefängnis

Stell dir vor: Du wachst auf, wirst von der Polizei verhaftet — und die Beweise gegen dich stammen aus einer KI-Gesichtserkennung, die dich mit einem Verbrechen in einem Staat in Verbindung bringt, in dem du nach eigenen Aussagen nie warst. Genau das ist Angela Lipps aus Tennessee passiert. Fünf Monate saß die Großmutter unschuldig hinter Gittern.

Was ist passiert?

Angela Lipps, eine Großmutter aus Tennessee, wurde von der Polizei verhaftet und wegen Bankbetrugs in North Dakota angeklagt. Die Verbindung: Ein Algorithmus für KI-Gesichtserkennung von Clearview AI. Laut CNN identifizierte die Software sie als Täterin — obwohl sie North Dakota nie besucht hatte. Fünf Monate saß sie unschuldig.

Clearview AI: Massenhaft genutzt, massenhaft umstritten

Clearview AI setzt Gesichtserkennung bei Hunderten US-Polizeibehörden ein. Die Technologie basiert auf Milliarden Fotos aus dem Internet, ohne Einwilligung der Betroffenen.

Warum KI-Bias auch ohne offensichtliche Faktoren entsteht

Studien zeigen: KI-Bias bei Gesichtserkennung ist Realität. Besonders bei älteren Menschen und Frauen steigen Fehlerquoten. Im Fall Lipps lag kein offensichtlicher Bias-Faktor vor — und trotzdem lag der Algorithmus daneben.

Was das bedeutet

  • 98 % Übereinstimmung ≠ 98 % Sicherheit. Es sind 98 % der Merkmale identisch — bei Systemen mit 1-5 % Fehlerrate.
  • Treffer ≠ Beweis. Gesichtserkennung ist ein Ermittlungsansatz, kein Urteil.
  • Keine Second Checks? Unklar, ob Lipps Fall unabhängig überprüft wurde.

Rechtslage

In den USA fehlen bundesweite Schutzgesetze. Die ACLU kämpft für strenge Auflagen. Mehr zum Thema KI-Überwachung und Privatsphäre bei uns.

Checkliste: So sollte Gesichtserkennung eingesetzt werden

  • ✅ KI-Treffer ist Ermittlungsansatz, kein Beweis
  • ✅ Unabhängige Bestätigung vor Verhaftung
  • ✅ Transparenz für Betroffene
  • ✅ Regelmäßige Audits nach Demografie
  • ✅ Rechtliche Grundlage und Schulung

Fazit

Der Fall Lipps ist kein Einzelfall, sondern ein Symptom. Solange KI-Gesichtserkennung ohne Kontrolle im Strafverfahren eingesetzt wird, werden weitere unschuldige Menschen im Gefängnis landen. Die Technologie ist nicht neutral — sie ist so gut wie ihre Daten und so zuverlässig wie die Menschen, die sie nutzen.

FAQ

Ist KI-Gesichtserkennung in Deutschland erlaubt?
Strenge DSGVO-Art. 22-Vorgaben schützen vor automatisierten Entscheidungen mit rechtlicher Wirkung.

Wie zuverlässig ist die Technologie?
Unter 1 % Fehlerquote unter Idealbedingungen — in der Praxis deutlich höher.

Kann ich mich gegen falsche Treffer wehren?
Ja, aber schwer — Algorithmen gelten oft als Geschäftsgeheimnis.

Kommentar verfassen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert