KI-Gesichtserkennung schickt unschuldige Großmutter für 6 Monate ins Gefängnis
TL;DR
Angela Lipps, 50-jährige Großmutter aus Tennessee, verbrachte fast sechs Monate in Haft – wegen eines Fehlers einer KI-Gesichtserkennung.
Key Points
- Die Software der Fargo-Polizei verknüpfte sie mit einem organisierten Bankbetrug in North Dakota.
- Lipps war laut eigener Aussage nie in North Dakota und hatte nichts mit den Taten zu tun.
- Der Fall reiht sich in eine wachsende Liste von Fehlidentifikationen durch Gesichtserkennungs-KI ein, die überproportional oft People of Color und Frauen betreffen.
- Lipps versucht nun, ihr Leben nach dem Gefängnisaufenthalt neu aufzubauen.
Nauti's Take
Sechs Monate Untersuchungshaft auf Basis eines KI-Treffers – ohne dass jemand ernsthaft überprüft hat, ob die Frau überhaupt jemals in North Dakota war. Das ist kein Versagen der KI allein, das ist ein Versagen der Menschen, die blind darauf vertrauten.
Gesichtserkennung ist ein Hinweis, kein Beweis – und genau diese Unterscheidung scheint bei der Fargo-Polizei niemand gemacht zu haben. Solange Behörden keine Rechenschaftspflicht für algorithmisch gestützte Festnahmen tragen, wird sich daran nichts ändern.
Hintergrund
Gesichtserkennung wird von US-Behörden zunehmend im Ermittlungsalltag eingesetzt – oft ohne ausreichende Kontrollmechanismen. Der Fall Lipps zeigt, was passiert, wenn ein algorithmischer Treffer als Beweis behandelt wird: Eine unbescholtene Person verliert fast ein halbes Jahr ihres Lebens. Besonders problematisch: Systeme wie diese haben nachweislich höhere Fehlerquoten bei Frauen und dunkelhäutigen Personen.
Solange keine verbindlichen Mindeststandards für den Einsatz in Strafverfolgung gelten, sind solche Fälle keine Ausnahme – sie sind systemimmanent.