843 / 1403

Politische Deepfakes wirken – selbst wenn du weißt, dass sie fake sind

TL;DR

KI-generierte Bilder zeigen erfundene Frauen in Militäruniformen – sie werden monetarisiert und als Propagandawerkzeug eingesetzt. Forscher warnen: Diese Avatare idealisieren politische Figuren wie Donald Trump, selbst wenn Nutzer wissen, dass der Content gefälscht ist. Das Phänomen nennen Experten 'emotional true' – die Bilder fühlen sich wahr an, obwohl sie es nicht sind. Creator verdienen mit solchen Accounts echtes Geld, während die Inhalte gleichzeitig geopolitische Narrative formen.

Nauti's Take

'Ich weiß, dass es fake ist' schützt nicht mehr – das ist die unbequeme Kernbotschaft dieser Studie. KI-Propaganda der nächsten Generation braucht keine Täuschung mehr, sie braucht nur Resonanz.

Wer Trump-idealisierte Militär-Avatare baut und damit Geld verdient, betreibt gleichzeitig politisches Framing als Nebenprodukt. Plattformen, die Monetarisierung solcher Inhalte erlauben, sind keine neutralen Infrastrukturen – sie sind Mitproduzenten dieser Realitätsverschiebung.

Regulierung, die nur auf 'ist das echt? ' abstellt, greift hier strukturell zu kurz.

Einordnunganzeigen

Bisher galt die Annahme: Wer weiß, dass etwas gefälscht ist, lässt sich nicht täuschen. Diese Forschung widerlegt das. Emotionale Wirkung und kognitive Erkenntnis sind zwei verschiedene Dinge – Propaganda funktioniert auch dann, wenn der Verstand 'fake' sagt.

Militärische Kontexte und sexualisierte Darstellungen kombinieren dabei zwei besonders wirkmächtige Trigger. Das macht diese neue Deepfake-Kategorie gefährlicher als klassische Falschinformationen.

Quellen