275 / 837

Politische Deepfakes wirken – selbst wenn du weißt, dass sie fake sind

TL;DR

KI-generierte Bilder zeigen erfundene Frauen in Militäruniformen – sie werden monetarisiert und als Propagandawerkzeug eingesetzt.

Key Points

  • Forscher warnen: Diese Avatare idealisieren politische Figuren wie Donald Trump, selbst wenn Nutzer wissen, dass der Content gefälscht ist.
  • Das Phänomen nennen Experten 'emotional true' – die Bilder fühlen sich wahr an, obwohl sie es nicht sind.
  • Creator verdienen mit solchen Accounts echtes Geld, während die Inhalte gleichzeitig geopolitische Narrative formen.
  • Deepfakes beschränken sich längst nicht mehr auf bekannte Persönlichkeiten – komplett erfundene Identitäten dominieren neue Propagandaformate.

Nauti's Take

'Ich weiß, dass es fake ist' schützt nicht mehr – das ist die unbequeme Kernbotschaft dieser Studie. KI-Propaganda der nächsten Generation braucht keine Täuschung mehr, sie braucht nur Resonanz.

Wer Trump-idealisierte Militär-Avatare baut und damit Geld verdient, betreibt gleichzeitig politisches Framing als Nebenprodukt. Plattformen, die Monetarisierung solcher Inhalte erlauben, sind keine neutralen Infrastrukturen – sie sind Mitproduzenten dieser Realitätsverschiebung.

Regulierung, die nur auf 'ist das echt? ' abstellt, greift hier strukturell zu kurz.

Hintergrund

Bisher galt die Annahme: Wer weiß, dass etwas gefälscht ist, lässt sich nicht täuschen. Diese Forschung widerlegt das. Emotionale Wirkung und kognitive Erkenntnis sind zwei verschiedene Dinge – Propaganda funktioniert auch dann, wenn der Verstand 'fake' sagt.

Militärische Kontexte und sexualisierte Darstellungen kombinieren dabei zwei besonders wirkmächtige Trigger. Das macht diese neue Deepfake-Kategorie gefährlicher als klassische Falschinformationen.

Quellen