ChatGPT alarmierte OpenAI: Konzern erwog Polizeimeldung wegen Waffengewalt-Chats eines Verdächtigen
TL;DR
OpenAI entdeckte über automatische Moderationstools, dass der kanadische Tatverdächtige Jesse Van Rootselaar in ChatGPT-Gesprächen Szenarien mit Waffengewalt beschrieben hatte.
Key Points
- Eine interne Prüfung wurde eingeleitet, ob der Fall an die Polizei weitergegeben werden sollte – OpenAI entschied sich letztlich dagegen.
- Das Unternehmen verwies auf bestehende interne Prozesse für solche Fälle, ohne diese öffentlich zu erläutern.
- In den USA gibt es bisher keine gesetzliche Meldepflicht für KI-Anbieter bei Hinweisen auf geplante Gewalttaten.
- Der Vorfall stellt alle großen KI-Plattformen vor das Grundsatzdilemma zwischen Nutzerprivatsphäre und öffentlicher Sicherheit.
Nauti's Take
OpenAI erkennt Gewaltfantasien in ChatGPT-Chats – und entscheidet sich trotzdem dagegen, die Polizei einzuschalten. Ob das der richtige Abwägungsprozess war, bleibt fraglich.
KI-Plattformen werden zwangsläufig zu Frühwarnsystemen – ohne klare rechtliche Rahmenbedingungen bewegen sie sich dabei in einem gefährlichen Graubereich.