4 / 420

Anthropic weist Pentagon-Sorge zurück: Claude im Krieg nicht manipulierbar

TL;DR

Das US-Verteidigungsministerium (DoD) hat intern die Sorge geäußert, Anthropic könnte KI-Modelle wie Claude während eines militärischen Konflikts aus der Ferne manipulieren oder deaktivieren.

Key Points

  • Anthropic-Manager widersprechen dem entschieden: Eine solche Fernsteuerung oder gezielte Sabotage sei technisch nicht möglich.
  • Der Vorwurf zeigt, wie tief das Misstrauen zwischen Militärbehörden und KI-Unternehmen sitzt – selbst wenn diese als Vertragspartner zusammenarbeiten.
  • Im Hintergrund steht die Frage, wie viel Kontrolle ein privates KI-Unternehmen über Systeme behält, die in sicherheitskritischen Szenarien eingesetzt werden.

Nauti's Take

Dass ein KI-Anbieter beteuern muss, seine eigenen Modelle nicht sabotieren zu können, ist an sich schon ein Armutszeugnis für die Reife der Branche. Anthropic mag technisch recht haben – aber 'vertrau uns einfach' reicht im Verteidigungskontext nicht als Antwort.

Spannend ist auch die Umkehrung: Wenn Anthropic wirklich keinen Einfluss auf deployed models hat, wer haftet dann bei Fehlfunktionen? Das Dilemma zwischen Kontrolle und Vertrauen wird sich nicht durch PR-Statements lösen lassen – hier braucht es unabhängige technische Zertifizierung, und zwar gestern.

Quellen