3 / 1047

Anthropics Mythos-Panne: Gesperrtes KI-Modell gelangte in falsche Hände

TL;DR

Anthropics streng kontrollierter Rollout des KI-Modells Claude Mythos ist gründlich schiefgelaufen. Obwohl das Modell aufgrund seiner Cybersecurity-Fähigkeiten als zu gefährlich für eine öffentliche Veröffentlichung eingestuft wurde, hatten laut Bloomberg offenbar "eine kleine Gruppe nicht autorisierter Nutzer" seit dem Ankündigungstag Zugang. Anthropic untersucht den Vorfall – ein empfindlicher Rückschlag für ein Unternehmen, das seine Marke konsequent auf AI-Safety aufgebaut hat.

Nauti's Take

Der Vorfall ist blamabel – zeigt aber auch, dass die Fähigkeiten von Claude Mythos offenbar vielversprechend genug sind, um unbefugten Zugriff zu motivieren. Das eigentliche Problem: Wenn Anthropic keinen kontrollierten Zugangsprozess absichern kann, ist das ein ernstes Signal für alle, die AI-Safety als zentrales Vertrauensargument nutzen.

Quellen