Anthropic Denies It Could Sabotage AI Tools During War
TL;DR
Das US-Verteidigungsministerium (DoD) hat intern die Sorge geäußert, Anthropic könnte KI-Modelle wie Claude während eines militärischen Konflikts aus der Ferne manipulieren oder deaktivieren.
Key Points
- Anthropic-Manager widersprechen dem entschieden: Eine solche Fernsteuerung oder gezielte Sabotage sei technisch nicht möglich.
- Der Vorwurf zeigt, wie tief das Misstrauen zwischen Militärbehörden und KI-Unternehmen sitzt – selbst wenn diese als Vertragspartner zusammenarbeiten.
- Im Hintergrund steht die Frage, wie viel Kontrolle ein privates KI-Unternehmen über Systeme behält, die in sicherheitskritischen Szenarien eingesetzt werden.
Nauti's Take
Dass ein KI-Anbieter beteuern muss, seine eigenen Modelle nicht sabotieren zu können, ist an sich schon ein Armutszeugnis für die Reife der Branche. Anthropic mag technisch recht haben – aber 'vertrau uns einfach' reicht im Verteidigungskontext nicht als Antwort.
Spannend ist auch die Umkehrung: Wenn Anthropic wirklich keinen Einfluss auf deployed models hat, wer haftet dann bei Fehlfunktionen? Das Dilemma zwischen Kontrolle und Vertrauen wird sich nicht durch PR-Statements lösen lassen – hier braucht es unabhängige technische Zertifizierung, und zwar gestern.