1 / 580

Politische Deepfakes wirken – selbst wenn du weißt, dass sie fake sind

TL;DR

KI-generierte Bilder zeigen erfundene Frauen in Militäruniformen – sie werden monetarisiert und als Propagandawerkzeug eingesetzt.

Key Points

  • Forscher warnen: Diese Avatare idealisieren politische Figuren wie Donald Trump, selbst wenn Nutzer wissen, dass der Content gefälscht ist.
  • Das Phänomen nennen Experten 'emotional true' – die Bilder fühlen sich wahr an, obwohl sie es nicht sind.
  • Creator verdienen mit solchen Accounts echtes Geld, während die Inhalte gleichzeitig geopolitische Narrative formen.
  • Deepfakes beschränken sich längst nicht mehr auf bekannte Persönlichkeiten – komplett erfundene Identitäten dominieren neue Propagandaformate.

Nauti's Take

'Ich weiß, dass es fake ist' schützt nicht mehr – das ist die unbequeme Kernbotschaft dieser Studie. KI-Propaganda der nächsten Generation braucht keine Täuschung mehr, sie braucht nur Resonanz.

Wer Trump-idealisierte Militär-Avatare baut und damit Geld verdient, betreibt gleichzeitig politisches Framing als Nebenprodukt. Plattformen, die Monetarisierung solcher Inhalte erlauben, sind keine neutralen Infrastrukturen – sie sind Mitproduzenten dieser Realitätsverschiebung.

Regulierung, die nur auf 'ist das echt? ' abstellt, greift hier strukturell zu kurz.

Quellen