Groks sexuelle Deepfakes brachten die App fast aus dem App Store – beinahe.
TL;DR
Apple drohte Elon Musks KI-App Grok im Januar still, sie aus dem App Store zu werfen – wegen fehlender Eindämmung nicht-konsensualer sexueller Deepfakes auf X. Dem Bericht von NBC News zufolge schrieb Apple an US-Senatoren, man habe die Teams hinter X und Grok kontaktiert und eine Verbesserung der Content-Moderation gefordert. Apple setzte damit Macht als Gatekeeper ein, wenn auch hinter verschlossenen Türen – während die Deepfake-Krise öffentlich eskalierte und Kritik an Apples Zögerlichkeit wuchs.
Nauti's Take
Apples Drohung, Grok aus dem App Store zu werfen, zeigt: Platform-Governance funktioniert – auch große Player werden zur Rechenschaft gezogen, wenn Content-Moderation öffentlich versagt. Das Problem: Erst ein öffentlicher Skandal brachte Bewegung, und die Lösung blieb hinter verschlossenen Türen.
Für KI-App-Entwickler ist das ein klares Signal: Content-Moderation ist keine Option, und Platform-Druck kann schnell eskalieren.