Mutter klagt OpenAI: Warum hat ChatGPT die Polizei nicht gewarnt?
TL;DR
Eine Mutter verklagt OpenAI, weil das Unternehmen die Polizei nicht warnte, obwohl ChatGPT offenbar vorab Hinweise auf geplante Gewalt des späteren Täters erhalten hatte.
Key Points
- Der Schütze soll mit ChatGPT über seine Pläne gesprochen haben – bevor er mehrere Menschen tötete. OpenAI unternahm laut Klage nichts.
- Die Klage wirft grundlegende Fragen zur Meldepflicht von KI-Systemen bei drohender Gewalt auf.
- OpenAI hat bislang keine öffentliche Stellungnahme zur konkreten Frage abgegeben, ob und wann das Unternehmen von den Inhalten wusste.
Nauti's Take
Dass ein Mensch mit einer KI über geplante Gewalt redet und danach zur Tat schreitet, ist ein Alptraum-Szenario, das die Branche bisher lieber nicht laut diskutiert hat. OpenAI hat zwar Nutzungsbedingungen und Safety-Teams – aber offenbar kein System, das in Echtzeit 'Wir müssen jetzt die Polizei anrufen' entscheidet.
Die Klage ist berechtigt, auch wenn der rechtliche Ausgang völlig offen ist. Wer Milliarden mit einem Produkt verdient, das Menschen täglich intimste Gedanken anvertrauen, trägt Verantwortung – und 'wir sind nur eine Plattform' wird als Ausrede nicht ewig funktionieren.