22 / 459

Wie OpenAI Sora sicher machen will – und warum das schwieriger ist als es klingt

TL;DR

OpenAI hat Sora 2 und die dazugehörige Sora-App mit einem sicherheitsorientierten Fundament entwickelt – Safety war von Anfang an Teil des Designs, nicht nachträglich hinzugefügt.

Key Points

  • Die Herausforderungen sind zweifach: ein leistungsstarkes Video-Modell der neuesten Generation plus eine neue Social-Creation-Plattform, auf der Nutzer Inhalte teilen können.
  • OpenAI betont 'konkrete Schutzmaßnahmen' als Kern des Ansatzes – Details zu den genauen technischen Mechanismen bleiben in der Ankündigung jedoch vage.
  • Die Kombination aus generativer Video-KI und sozialer Plattform schafft neue Risiken rund um Deepfakes, Desinformation und missbräuchliche Inhalte.

Nauti's Take

'Safety at the foundation' klingt gut – aber dieser Satz steht inzwischen in gefühlt jeder KI-Pressemitteilung, die OpenAI herausgibt. Die eigentliche Frage ist: Welche konkreten Mechanismen greifen, wenn ein Nutzer versucht, eine Politikerin in einer kompromittierenden Situation darzustellen?

Die Ankündigung bleibt da bewusst unscharf. Positiv ist immerhin, dass OpenAI das Thema proaktiv adressiert, bevor die Plattform viral geht – das ist besser als Nachkarten.

Aber PR-Versprechen und gelebte Moderationspraxis sind zwei verschiedene Paar Schuhe.

Quellen