Amount of AI-generated child sexual abuse material found online surged in 2025

TL;DR

Die Internet Watch Foundation (IWF) hat 2025 insgesamt 8.029 KI-generierte, realistisch wirkende Bilder und Videos von Kindesmissbrauch (CSAM) verifiziert.

Key Points

  • Die Zahl der gefundenen Inhalte stieg im Vergleich zum Vorjahr um 14 % – besonders dramatisch bei Videos: ein Anstieg um das 260-fache.
  • 65 % der gefundenen Videos fallen in die schwerste Kategorie von Missbrauchsdarstellungen.
  • Die IWF warnt, dass generative KI-Tools die Produktion solcher Inhalte massiv erleichtern und skalieren.

Nauti's Take

Ein 260-facher Anstieg bei Videos innerhalb eines Jahres ist kein gradueller Trend – das ist ein Kontrollverlust. Wer KI-Modelle baut und deployed, trägt Mitverantwortung dafür, dass Missbrauch nicht industrialisiert wird.

Die Branche kann sich nicht länger hinter 'wir können nicht alles kontrollieren' verstecken, wenn die Zahlen so eindeutig sprechen. Stärkere Vorfilterung in Trainingssets, robustere Content-Detection und echte Kooperation mit Behörden wie der IWF müssen jetzt Pflicht werden – nicht Kür.

Quellen