Microsoft a investi jusqu’à 5 milliards de dollars dans Anthropic, tandis qu’Anthropic s’est engagé à acheter pour 30 milliards de dollars de puissance de calcul Azure dans le cadre du partenariat. Ce contexte rend sa décision de déposer un mémoire d’amicus curiae en soutien à la plainte d’Anthropic contre le Département de la Défense américain moins altruiste et plus une autodéfense financière. Le mémoire, déposé le 10 mars à San Francisco, soutient qu’une ordonnance de restriction temporaire empêchant l’application de la désignation de « risque de chaîne d’approvisionnement » du Pentagone serait dans l’intérêt public. Microsoft elle-même est un important contractant du DoD, et cette désignation met en danger ses propres produits. Le secrétaire à la Défense Pete Hegseth a ordonné qu’aucun contractant, fournisseur ou partenaire travaillant avec l’armée américaine ne puisse effectuer d’activité commerciale avec Anthropic — une mesure potentiellement suffisamment large pour inclure les produits Copilot et Azure de Microsoft, qui prennent en charge Claude.
Le mémoire met en lumière une contradiction procédurale qui a peu attiré l’attention dans la couverture médiatique : le Département de la Défense s’était donné un délai de six mois pour se désengager des outils d’Anthropic, mais a appliqué la désignation aux contractants immédiatement, sans période de transition équivalente. Les avocats de Microsoft ont directement souligné cela, notant que les fournisseurs technologiques doivent maintenant se dépêcher d’auditer, de réingénier et de racheter des produits selon un calendrier que le gouvernement ne s’est pas imposé. Microsoft a également lancé une alerte sur un point central du litige juridique. L’autorité invoquée — 10 U.S.C. § 3252 — a historiquement été réservée aux adversaires étrangers. Une seule désignation de ce type a été rendue publique sous des statuts liés, et c’était contre Acronis AG, une société suisse de logiciels avec des liens russes. La utiliser contre une startup d’IA de San Francisco est, selon Microsoft, « sans précédent ».
L’argument le plus percutant du mémoire est structurel. Si un litige contractuel entre une agence et une entreprise peut déclencher une liste noire pour sécurité nationale, alors chaque entreprise travaillant avec le gouvernement fédéral hérite d’une nouvelle catégorie de risques existentiels. Les avocats de Microsoft ont décrit un modèle industriel basé sur des services interconnectés, où un composant interdit peut paralyser toute une gamme de produits. Il y a une ironie difficile à ignorer. Microsoft est à la fois le plus grand soutien d’OpenAI — avec des investissements estimés à environ 135 milliards de dollars — et l’un de ses défenseurs les plus vocaux en justice. De son côté, OpenAI a rapidement signé un accord avec le DoD quelques heures après la publication de la liste noire d’Anthropic, un mouvement qui a suscité des réactions internes négatives et a conduit le PDG d’OpenAI, Sam Altman, à reconnaître publiquement que l’annonce « semblait opportuniste et bâclée ». Microsoft soutient ces deux positions.
Voici une republication d’un message interne :
Nous avons travaillé avec le DoW pour apporter quelques ajouts à notre accord afin de clarifier nos principes.
- Nous allons modifier notre accord pour ajouter cette clause, en plus de tout le reste :
"• Conformément aux lois applicables,…
— Sam Altman (@sama) 3 mars 2026
Le mémoire ne va pas jusqu’à approuver les positions spécifiques d’Anthropic sur la sécurité de l’IA concernant les armes autonomes et la surveillance de masse — deux lignes rouges qui ont déclenché la confrontation. Au lieu de cela, il encadre l’affaire en termes compréhensibles pour tout contractant gouvernemental : procédure régulière, transitions ordonnées, et effets de la militarisation du droit des marchés publics sur les désaccords politiques. La demande de Microsoft est une ordonnance de restriction temporaire, pas un verdict. Le géant technologique souhaite ralentir le processus pour permettre aux parties de négocier — et pour que ses propres produits restent légalement déployables pendant ce temps. Ce qui est en jeu dépasse le simple contrat d’une entreprise. Si les tribunaux acceptent la décision du Pentagone, alors chaque entreprise d’IA vendant au gouvernement vient d’apprendre que les garde-fous de sécurité peuvent être requalifiés en menaces pour la sécurité nationale. Le mémoire de Microsoft montre que cette leçon n’est pas perdue pour l’ensemble de l’industrie technologique — et que l’entreprise n’est pas prête à l’apprendre discrètement.