55 / 704

Unregulierte Chatbots gefährden Menschenleben

TL;DR

Leser reagieren auf einen Guardian-Artikel über Menschen, deren Leben durch KI-induzierte Wahnvorstellungen zerstört wurden – von gescheiterten Ehen bis zu Verlusten von 100.000 Euro.

Key Points

  • Eine Expertin aus dem Gesundheitswesen kritisiert: Selbst unterfinanzierte Kliniken screenen Patienten vor risikoreichen Eingriffen – KI-Unternehmen tun das nicht.
  • Standardisierte Tests wie der PHQ-9 (Depression) oder die Columbia Suicide Severity Rating Scale funktionieren in Dutzenden Sprachen und brauchen nur Minuten zur Durchführung.
  • Der Kernvorwurf: Chatbots werden ohne jedes Vorscreening auf psychisch vulnerable Nutzer losgelassen – ein Versagen, das regulatorisch bisher kaum adressiert wird.

Nauti's Take

Es ist bezeichnend, dass ein Hilfsprojekt in einem Land ohne stabile Stromversorgung mehr Sorgfaltspflicht gegenüber psychisch labilen Menschen aufbringt als ein Milliarden-Dollar-Konzern aus San Francisco. KI-Unternehmen haben die Ressourcen, PHQ-9-Screening in drei Minuten ins Onboarding zu integrieren – sie entscheiden sich dagegen, weil jeder zusätzliche Schritt die Conversion-Rate drückt.

Das ist keine Nachlässigkeit, das ist eine Kosten-Nutzen-Rechnung auf Kosten vulnerabler Menschen. Regulatoren sollten aufhören, auf 'freiwillige Selbstverpflichtungen' zu warten, und Mindeststandards für psychische Sicherheit verbindlich vorschreiben.

Quellen