118 / 244

Pentagon nimmt Anthropic ins Visier, weil Claude keine KI-Waffen oder Überwachung bedienen darf

TL;DR

Die Eskalation mit dem US-Verteidigungsministerium steht im Raum, weil Anthropic Claude nicht für inländische Massenüberwachung oder autonome Waffensysteme freigeben will. Bis vor Kurzem war das 350-Milliarden-Dollar-Unternehmen eher still, hatte wenige Konflikte wie OpenAI oder xAI und Dario Amodei war außerhalb des Valley kaum bekannt. Claude hinkte hinter ChatGPT her, doch der Streit macht das Modell zur zentralen Figur im Kampf um technische Grenzen. Die Verweigerung bringt daher neue Erwartungen an Verantwortlichkeit und Einsatzregeln für KI im Krieg mit sich.

Nauti's Take

Anthropic hat seine Marke auf 'verantwortungsvoller KI' aufgebaut – jetzt testet das Pentagon genau diese Versprechen. Autonome Waffensysteme abzulehnen ist die leichte Entscheidung; die schwierige Frage ist, wo genau die Grenze bei allem dazwischen liegt.

Quellen