942 / 1047

KI hilft Hackern beim Enttarnen anonymer Social-Media-Accounts, Studie warnt

TL;DR

Eine neue Studie zeigt: LLMs wie ChatGPT ermöglichen es, anonyme Social-Media-Accounts mit realen Identitäten zu verknüpfen – in den meisten Testszenarien erfolgreich.

Key Points

  • Die Angriffsmethode basiert auf dem Abgleich von Posting-Inhalten über verschiedene Plattformen hinweg, ohne dass technische Hacking-Skills nötig sind.
  • Forscher warnen, dass KI die Hürde für sogenannte De-Anonymisierungsangriffe drastisch gesenkt hat – was bisher aufwendige manuelle Analyse war, läuft jetzt automatisiert.
  • Die Ergebnisse betreffen jeden, der glaubt, durch Pseudonyme oder getrennte Accounts anonym zu sein.

Nauti's Take

Das ist keine Science-Fiction und kein Einzelfall – das ist ein reproduzierbarer Angriff, der mit frei verfügbaren KI-Tools funktioniert. Wer noch immer denkt, ein Twitter-Pseudonym schützt vor Identifizierung, sollte diese Studie lesen.

Besonders brisant: Die Technologie, die hier missbraucht wird, ist dieselbe, die als harmloser Produktivitätshelfer vermarktet wird. Die KI-Industrie muss sich fragen, ob 'dual use' hier nicht zum Euphemismus für 'Überwachungswerkzeug für alle' geworden ist.

Hintergrund

Anonymität im Netz galt lange als erreichbarer Schutz für Aktivisten, Whistleblower oder einfach Menschen, die Privatsphäre wollen. Diese Studie zeigt, dass LLMs diesen Schutz systematisch aushebeln können – ohne Zugang zu Metadaten oder technische Exploits. Das verschiebt das Machtgefälle: Wer früher spezialisiertes Wissen brauchte, um jemanden zu enttarnen, kann jetzt auf ein Chatbot-Interface zurückgreifen.

Das ist ein strukturelles Problem, das Plattformen, Gesetzgeber und Nutzer gleichermaßen betrifft.

Quellen