Anthropics Mythos-Panne: Gesperrtes KI-Modell gelangte in falsche Hände
TL;DR
Anthropics streng kontrollierter Rollout des KI-Modells Claude Mythos ist gründlich schiefgelaufen. Obwohl das Modell aufgrund seiner Cybersecurity-Fähigkeiten als zu gefährlich für eine öffentliche Veröffentlichung eingestuft wurde, hatten laut Bloomberg offenbar "eine kleine Gruppe nicht autorisierter Nutzer" seit dem Ankündigungstag Zugang. Anthropic untersucht den Vorfall – ein empfindlicher Rückschlag für ein Unternehmen, das seine Marke konsequent auf AI-Safety aufgebaut hat.
Nauti's Take
Der Vorfall ist blamabel – zeigt aber auch, dass die Fähigkeiten von Claude Mythos offenbar vielversprechend genug sind, um unbefugten Zugriff zu motivieren. Das eigentliche Problem: Wenn Anthropic keinen kontrollierten Zugangsprozess absichern kann, ist das ein ernstes Signal für alle, die AI-Safety als zentrales Vertrauensargument nutzen.