KI hilft Hackern beim Enttarnen anonymer Social-Media-Accounts, Studie warnt
TL;DR
Eine neue Studie zeigt, dass KI-Modelle wie ChatGPT in den meisten Tests anonyme Social-Media-Profile mit echten Identitäten auf anderen Plattformen verknüpfen konnten, indem sie aus Beiträgen Rückschlüsse zogen. Die Forschenden sagen, dass diese Matchrate ganz ohne zusätzliche Datenquellen zustande kam, weil die generierten Texte genug Hinweise über Vorlieben, Ortsangaben und Stil liefern. Der Guardian beschreibt das Experiment als repräsentativen Angriff, weil die LLMs selbst bei knappen Informationen stabile Matches lieferten. Damit rücken die bisher eingesetzten Schutzschichten gegen De-Anonymisierung in gefährliche Nähe zur Bedeutungslosigkeit.
Nauti's Take
Wer KI-Funktionen baut, muss davon ausgehen, dass jede Prompt-Log und jeder Kontext-Hint zur Identitätsfahndung wird; LLMs verknüpfen anonyme Posts automatisch über Plattformen. Reduziere externe Kontextquellen, anonymisiere Logs und definiere klare Failstates, wenn die Modelle nach Namen oder Accounts fragen.