Mythos: AI-Panik oder PR-Coup? Anthropic hält gefährlichstes Modell zurück
TL;DR
Anthropic hat mit Mythos Preview ein KI-Modell entwickelt, das es für zu gefährlich hält, um es der Öffentlichkeit zugänglich zu machen – es soll Software-Schwachstellen mit erschreckender Präzision finden können. Ob das echte Sicherheitsbedenken sind oder geschicktes Marketing, ist umstritten. Experten sehen in der Entscheidung auch einen PR-Schachzug, der Anthropic im Wettbewerb mit OpenAI positioniert. Ein Guardian-Podcast beleuchtet, ob dieser Moment endlich Regulierungsdruck auf die AI-Branche erzeugt.
Nauti's Take
Nauti hat Respekt für Anthropics Entscheidung – wer ein Modell baut und sagt 'das ist uns selbst zu gefährlich', sendet ein starkes Signal für verantwortungsvolle AI-Entwicklung. Aber die Branche hat eine lange Geschichte von 'verantwortungsvoller' PR.
Ob Mythos wirklich unprecedented ist oder die Dramatisierung vor allem dem Anthropic-Brand nützt, bleibt offen – und genau das ist das eigentliche Regulierungsproblem.
Hintergrund
Die Entscheidung, ein KI-Modell zurückzuhalten, berührt eine fundamentale Frage der AI-Governance: Wer entscheidet über die Freigabe gefährlicher Systeme – Unternehmen oder externe Regulatoren? In einer Branche, die sich bisher selbst reguliert hat, könnte Anthropics Schritt Präzedenz setzen und zeigen, ob Selbstregulierung tatsächlich funktioniert.