Microsoft hält Claude-Modelle trotz Pentagon-Blacklist im Portfolio
TL;DR
Microsoft wird Anthropics Claude-Modelle weiterhin über seine Cloud-Plattform Azure anbieten, obwohl das Pentagon Anthropic auf eine Liste potenzieller Sicherheitsrisiken gesetzt hat.
Key Points
- Das US-Verteidigungsministerium stufte Anthropic nach Section 1260H ein – einer Regelung, die Unternehmen mit angeblichen Verbindungen zum chinesischen Militär erfasst.
- Anthropic bestreitet die Einstufung vehement und bezeichnet sie als fehlerhaft; das Unternehmen hat keine bekannten Verbindungen zur chinesischen Volksbefreiungsarmee.
- Microsoft erklärte, die Designation ändere nichts an der Verfügbarkeit der Anthropic-Produkte für Unternehmenskunden auf Azure.
Nauti's Take
Anthropic auf der gleichen Liste wie Unternehmen mit mutmaßlichen Verbindungen zur chinesischen Volksbefreiungsarmee – das klingt nach einem kafkaesken Bürokratiefehler, und genau das ist es wohl auch. Dass Microsoft trotzdem öffentlich zu Claude steht, ist weniger Heldenmut als nüchterne Geschäftslogik: Azure-Kunden zahlen für Claude-Zugang, und den einfach abzudrehen wäre teuer und imageschädlich.
Interessanter ist die Langzeitfrage: Wenn solche Designations künftig häufiger werden, zwingt das AI-Anbieter in Europa, ihre Abhängigkeit von US-Cloud-Plattformen ernsthafter zu hinterfragen.