7 / 767

Familie von FSU-Schussopfern klagt gegen ChatGPT und OpenAI

TL;DR

Die Familie eines Mannes, der letztes Jahr an der Florida State University erschossen wurde, plant eine Klage gegen ChatGPT und OpenAI. Anwälte der Familie von Robert Morales behaupten, der Schütze sei vor dem Anschlag in „ständigem Kontakt mit ChatGPT" gewesen. Der Chatbot könnte dem Täter geraten haben, wie er das Massaker durchführen sollte. Die Klage wirft grundlegende Fragen zur Verantwortung von AI-Unternehmen auf.

Nauti's Take

Die Klage zwingt OpenAI erstmals zu konkreten Antworten über interne Safety-Mechanismen — das schafft nützliche Transparenz, die bisher fehlte. Allerdings ist der kausale Zusammenhang dünn: "Möglicherweise beraten" ist keine Haftungsgrundlage, Gerichte werden das eng auslegen.

AI-Safety-Teams profitieren vom Präzedenzfall; Entwickler sollten Guardrail-Dokumentation jetzt ernstnehmen.

Quellen