887 / 1079

Character.AI hat sein Schulmassaker-Problem seit 2024 nicht gelöst

TL;DR

Character.AI hat ein seit 2024 bekanntes Problem mit Schulmassaker-Roleplays bis heute nicht behoben.

Key Points

  • Futurism-Journalisten konnten die problematischen Inhalte erneut ohne großen Aufwand abrufen – das System macht es laut Bericht erschreckend leicht.
  • Trotz öffentlichem Druck, Klagen und versprochenen Sicherheitsupdates sind die Lücken im Moderationssystem offenbar weiterhin vorhanden.
  • Die Plattform ist besonders bei Minderjährigen beliebt, was das Risiko erheblich verschärft.

Nauti's Take

Character. AI hat nach der ersten Berichterstattung 2024 genau das getan, was Tech-Unternehmen in solchen Situationen immer tun: Pressemitteilung raus, Sicherheitsversprechen machen, Thema aussitzen.

Ein Jahr später ist nichts besser geworden. Das ist kein Ressourcenproblem – eine Plattform mit Milliardenbewertung könnte das technisch morgen früh einschränken.

Es ist ein Prioritätenproblem. Solange Nutzerwachstum wichtiger ist als Nutzerschutz, wird sich daran nichts ändern.

Hintergrund

Wenn ein Unternehmen ein sicherheitsrelevantes Problem über mehr als ein Jahr ignoriert, ist das kein Versehen mehr – das ist eine Entscheidung. Character. AI richtet sich an ein junges Publikum und trägt damit besondere Verantwortung.

Dass Inhalte rund um Schulgewalt so einfach abrufbar bleiben, zeigt, wie wenig die internen Safety-Teams tatsächlich priorisiert werden. Regulatoren und Eltern sollten das als Warnsignal verstehen.

Quellen