US-Militär nutzte Anthropics Claude bei Venezuela-Einsatz – gegen eigene Nutzungsbedingungen
TL;DR
Das US-Militär hat Anthropics KI-Modell Claude bei einer Operation in Venezuela eingesetzt – einem Angriff auf Caracas, der laut venezolanischem Verteidigungsministerium 83 Menschen das Leben kostete.
Key Points
- Der Einsatz erfolgte über Anthropics Partnerschaft mit Palantir Technologies, einem führenden Anbieter von Militär- und Geheimdiensttechnologie für US-Behörden
- Anthropics eigene Nutzungsbedingungen verbieten explizit den Einsatz von Claude für gewalttätige Zwecke, Waffenentwicklung oder staatliche Überwachung
- Der Fall verschärft eine Debatte, die bereits mit Anthropics Pentagon-Konflikt begann: Wie weit darf KI in militärischen Operationen eingesetzt werden?
- Palantir fungiert als Vermittler zwischen KI-Anbietern und staatlichen Stellen – ein Geschäftsmodell, das grundlegende Fragen zur Verantwortlichkeit von KI-Unternehmen aufwirft
Nauti's Take
Anthropic predigt Safety-First und verbietet Gewalt in den Terms – aber über Palantir landet Claude trotzdem bei Militäroperationen mit Dutzenden Toten. Entweder hat man die eigenen Partner nicht im Griff, oder die ethischen Leitplanken sind nur Marketing.
Für ein Unternehmen, das sich als das verantwortungsvollere AI-Lab positioniert, ist das verheerend.