2 / 334

Schulmädchen-Gräber im Iran: Virales Kriegsfoto war echt – KI-Slop vergiftete die Debatte

TL;DR

Ein Foto eines Friedhofs im iranischen Minab – angeblich mit Gräbern von über 100 getöteten Schulmädchen – ging viral und löste weltweit Bestürzung aus.

Key Points

  • Sofort entbrannte die Frage: echt oder KI-generiert? Faktenchecker und Nutzer analysierten Bilddetails, Metadaten und Kontext.
  • Gleichzeitig lieferten KI-Chatbots wie Gemini und Grok nachweislich falsche Antworten zur Iran-Berichterstattung – von erfundenen Opferzahlen bis zu halluzinierten Quellen.
  • Das Bild stellte sich laut The Guardian als authentisch heraus, doch der Vertrauensschaden durch die grassierende KI-Desinformation war bereits angerichtet.
  • Der Fall zeigt exemplarisch, wie KI-Slop echte Kriegsfotografie in Mitleidenschaft zieht und Verifizierung zur Sisyphusarbeit macht.

Nauti's Take

Die eigentlich erschütternde Nachricht ist nicht, ob das Bild echt ist – es ist echt – sondern dass wir inzwischen reflexartig daran zweifeln müssen. KI-Slop hat die Beweislast umgekehrt: Echte Fotos müssen sich jetzt gegen den Verdacht verteidigen, Fakes zu sein.

Dass ausgerechnet Gemini und Grok in diesem Kontext Falschinformationen verbreiteten, ist mehr als peinlich – es ist gefährlich. Wer KI als Nachrichtenquelle oder Faktenchecker einsetzt, sollte diesen Fall als Warnung ernst nehmen.

Kriegsberichterstattung war schon immer ein Schlachtfeld der Narrative; KI gibt schlechten Akteuren jetzt Massenproduktionskapazitäten.

Quellen