Pentagon vs. Anthropic: Wer bestimmt die Guardrails für militärische KI
TL;DR
Das US-Verteidigungsministerium unter Pete Hegseth hat Anthropic ein Ultimatum gestellt: uneingeschränkter Zugang zu KI-Systemen für militärische Zwecke – oder Einstufung als Lieferkettenrisiko.
Key Points
- Anthropic hat zwei rote Linien gezogen: keine Nutzung seiner Modelle für Inlandsüberwachung von US-Bürgern und kein vollautonomes militärisches Targeting.
- Nach Anthropics Weigerung ordnete die Administration an, Bundesbehörden sollten die Technologie des Unternehmens schrittweise abschaffen.
- Der Konflikt wirft eine grundlegende Frage auf: Wer setzt die Leitplanken für militärische KI – die Exekutive, Privatunternehmen oder der Kongress?
Nauti's Take
Anthropic verdient Respekt dafür, dass es standhält – aber es ist ein schlechtes Zeichen, wenn Unternehmensethik die einzige Firewall gegen autonome Waffensysteme ist. Demokratische Kontrolle über militärische KI ist keine linke Wunschvorstellung, sondern eine zivilisatorische Grundfrage.
Die eigentliche Geschichte hier ist nicht Anthropic gegen Pentagon, sondern das vollständige Fehlen eines gesetzlichen Rahmens, der diese Entscheidungen dem Kongress übergibt statt dem Oval Office oder einem Startup-Gründer. Wer glaubt, das Militär brauche nur 'weniger Bürokratie', sollte erklären, wer haftet, wenn ein autonomes System die falsche Person tötet.