Politische Deepfakes wirken – selbst wenn du weißt, dass sie fake sind
TL;DR
KI-generierte Bilder zeigen erfundene Frauen in Militäruniformen – sie werden monetarisiert und als Propagandawerkzeug eingesetzt.
Key Points
- Forscher warnen: Diese Avatare idealisieren politische Figuren wie Donald Trump, selbst wenn Nutzer wissen, dass der Content gefälscht ist.
- Das Phänomen nennen Experten 'emotional true' – die Bilder fühlen sich wahr an, obwohl sie es nicht sind.
- Creator verdienen mit solchen Accounts echtes Geld, während die Inhalte gleichzeitig geopolitische Narrative formen.
- Deepfakes beschränken sich längst nicht mehr auf bekannte Persönlichkeiten – komplett erfundene Identitäten dominieren neue Propagandaformate.
Nauti's Take
'Ich weiß, dass es fake ist' schützt nicht mehr – das ist die unbequeme Kernbotschaft dieser Studie. KI-Propaganda der nächsten Generation braucht keine Täuschung mehr, sie braucht nur Resonanz.
Wer Trump-idealisierte Militär-Avatare baut und damit Geld verdient, betreibt gleichzeitig politisches Framing als Nebenprodukt. Plattformen, die Monetarisierung solcher Inhalte erlauben, sind keine neutralen Infrastrukturen – sie sind Mitproduzenten dieser Realitätsverschiebung.
Regulierung, die nur auf 'ist das echt? ' abstellt, greift hier strukturell zu kurz.