1 / 297

KI-Fehler lässt unschuldige Großmutter fast sechs Monate ins Gefängnis gehen

TL;DR

Eine ältere Frau wurde aufgrund eines KI-Fehlers bei der Gesichtserkennung fast sechs Monate lang zu Unrecht inhaftiert.

Key Points

  • Die KI identifizierte sie fälschlicherweise als Tatverdächtige – die Polizei überprüfte das Ergebnis offenbar kaum und leitete Ermittlungen ein.
  • Der Fall reiht sich in eine wachsende Liste von Fehlidentifikationen durch Gesichtserkennungssysteme ein, die überproportional häufig People of Color betreffen.
  • Weder die KI noch die ermittelnden Beamten erkannten den Fehler rechtzeitig – die Frau saß trotzdem hinter Gittern.

Nauti's Take

Futurism bringt es auf den Punkt: dumme KI trifft auf noch dümmere Polizeiarbeit. Das eigentliche Problem ist nicht, dass KI Fehler macht – das tut sie, das ist bekannt, das ist dokumentiert.

Das Problem ist, dass Behörden trotzdem so tun, als wäre ein Algorithmus-Output ein Beweis. Wer eine Großmutter verhaftet, weil ein System mit bekannter Fehlerrate ‚Match' sagt, und dann nicht mal gründlich nachprüft, hat das Grundprinzip rechtsstaatlicher Ermittlung verlassen.

Solche Fälle brauchen keine KI-Regulierung als Antwort – sie brauchen Polizisten, die ihren Job machen.

Quellen