ChatGPT-Funktion «Trusted Contact» warnt Angehörige bei Krisensignalen
TL;DR
OpenAI startet eine optionale Sicherheitsfunktion für ChatGPT, mit der erwachsene User eine Vertrauensperson hinterlegen können. Erkennt das System mögliche Anzeichen für Selbstverletzung oder Suizidgedanken, wird der Trusted Contact benachrichtigt. Damit ergänzt OpenAI lokalisierte Hotlines um eine zusätzliche menschliche Schutzschicht — wirft aber Fragen zu Privatsphäre und Trefferquote der Erkennung auf.
Nauti's Take
Stark: Trusted Contact ist ein konkreter Schritt von OpenAI, AI-Verantwortung über reine Hotline-Verweise hinaus zu denken — eine vertraute Person ist im Krisenmoment oft wirksamer als jede Helpline. Heikel: Falsch-Positive können toxisch sein, und die Trigger-Logik muss extrem präzise arbeiten, sonst wird Vertrauen zu ChatGPT zur Wanze.
Die Funktion lohnt sich für Familien — Unternehmen sollten sie genau auf Datenschutz prüfen.