1050 / 1128

Microsoft hält Claude-Modelle trotz Pentagon-Blacklist im Portfolio

TL;DR

Microsoft wird Anthropics Claude-Modelle weiterhin über seine Cloud-Plattform Azure anbieten, obwohl das Pentagon Anthropic auf eine Liste potenzieller Sicherheitsrisiken gesetzt hat.

Key Points

  • Das US-Verteidigungsministerium stufte Anthropic nach Section 1260H ein – einer Regelung, die Unternehmen mit angeblichen Verbindungen zum chinesischen Militär erfasst.
  • Anthropic bestreitet die Einstufung vehement und bezeichnet sie als fehlerhaft; das Unternehmen hat keine bekannten Verbindungen zur chinesischen Volksbefreiungsarmee.
  • Microsoft erklärte, die Designation ändere nichts an der Verfügbarkeit der Anthropic-Produkte für Unternehmenskunden auf Azure.

Nauti's Take

Anthropic auf der gleichen Liste wie Unternehmen mit mutmaßlichen Verbindungen zur chinesischen Volksbefreiungsarmee – das klingt nach einem kafkaesken Bürokratiefehler, und genau das ist es wohl auch. Dass Microsoft trotzdem öffentlich zu Claude steht, ist weniger Heldenmut als nüchterne Geschäftslogik: Azure-Kunden zahlen für Claude-Zugang, und den einfach abzudrehen wäre teuer und imageschädlich.

Interessanter ist die Langzeitfrage: Wenn solche Designations künftig häufiger werden, zwingt das AI-Anbieter in Europa, ihre Abhängigkeit von US-Cloud-Plattformen ernsthafter zu hinterfragen.

Hintergrund

Die Pentagon-Einstufung nach Section 1260H ist kein Handelsverbot, schafft aber erhebliche Rechtsunsicherheit für US-Unternehmen, die mit Anthropic kooperieren. Microsofts klares Bekenntnis zu Claude auf Azure ist damit ein Signal an den Markt: Geschäftskontinuität hat Vorrang vor regulatorischer Vorsicht. Gleichzeitig setzt der Vorfall ein Zeichen, wie schnell geopolitische Spannungen selbst rein amerikanische KI-Startups treffen können – mit potenziellen Folgen für Investoren, Partner und die europäische Kundschaft.

Quellen