29 / 130

ChatGPT alarmierte OpenAI: Konzern erwog Polizeimeldung wegen Waffengewalt-Chats eines Verdächtigen

TL;DR

OpenAI entdeckte über automatische Moderationstools, dass der kanadische Tatverdächtige Jesse Van Rootselaar in ChatGPT-Gesprächen Szenarien mit Waffengewalt beschrieben hatte.

Key Points

  • Eine interne Prüfung wurde eingeleitet, ob der Fall an die Polizei weitergegeben werden sollte – OpenAI entschied sich letztlich dagegen.
  • Das Unternehmen verwies auf bestehende interne Prozesse für solche Fälle, ohne diese öffentlich zu erläutern.
  • In den USA gibt es bisher keine gesetzliche Meldepflicht für KI-Anbieter bei Hinweisen auf geplante Gewalttaten.
  • Der Vorfall stellt alle großen KI-Plattformen vor das Grundsatzdilemma zwischen Nutzerprivatsphäre und öffentlicher Sicherheit.

Nauti's Take

OpenAI erkennt Gewaltfantasien in ChatGPT-Chats – und entscheidet sich trotzdem dagegen, die Polizei einzuschalten. Ob das der richtige Abwägungsprozess war, bleibt fraglich.

KI-Plattformen werden zwangsläufig zu Frühwarnsystemen – ohne klare rechtliche Rahmenbedingungen bewegen sie sich dabei in einem gefährlichen Graubereich.

Quellen