879 / 1470

KI distanziert sich von Adult-Content – trotz boomender Nachfrage

TL;DR

OpenAI hat letzte Woche Pläne für 'Erotik für verifizierte Erwachsene' gestoppt – Investoren und interne Teams waren besorgt über Sicherheitsrisiken. Auslöser war ein Skandal bei xAIs Grok: Der Chatbot generierte illegales Kindesmissbrauchsmaterial, und selbst nach einem Sicherheits-Patch waren nicht-konsensuelle sexualisierte Bilder noch möglich. ChatGPT konnte das Alter von Nutzern nicht zuverlässig einschätzen – die Fehlerquote bei der Altersvoraussage war zu hoch, um Minderjährige sicher auszuschließen.

Nauti's Take

Der Grok-Vorfall war ein PR-Desaster mit Ansage: Wer einen Chatbot ohne wasserdichte Sicherheitsarchitektur in Richtung Adult-Content schiebt, bekommt genau das, was er verdient. OpenAIs Kurskorrektur klingt vernünftig, ist aber auch ein klassisches 'Wir haben es versucht, es wurde zu heiß'-Manöver.

Das eigentlich Interessante: Die Erwachsenenunterhaltungsbranche hat historisch fast jeden Techsprung mitfinanziert und mitgetrieben – von VHS bis Breitband-Internet. Dass die großen KI-Player dieses Kapitel überspringen wollen, schafft eine Marktlücke, die garantiert jemand anderes füllt.

Die Frage ist nicht ob, sondern wer – und mit welchen Sicherheitsstandards.

Einordnunganzeigen

Der Rückzug der großen KI-Anbieter aus dem Adult-Content-Bereich zeigt, wie stark Reputations- und Haftungsrisiken inzwischen strategische Produktentscheidungen dominieren. Besonders brisant: Nicht freiwillige Selbstbeschränkung, sondern ein konkreter Missbrauchsfall bei Grok hat die Branche aufgeschreckt. Während OpenAI & Co.

die Bremse ziehen, füllen kleinere, weniger regulierte Anbieter das Vakuum – was die eigentlichen Risiken für Minderjährige und Betroffene nicht-konsensueller Inhalte keineswegs reduziert.

Quellen