WASHINGTON : OpenAI a conclu un accord avec le ministère américain de la Défense pour déployer ses modèles d'intelligence artificielle sur les réseaux infonuagiques classifiés de l'armée, a annoncé la société le 27 février en fin de journée, alors que le président Donald Trump ordonnait aux agences fédérales de cesser d'utiliser la technologie de la société concurrente Anthropic.

Le PDG d'OpenAI, Sam Altman, a déclaré que le département, que l'administration Trump désigne comme « Département de la Guerre » à titre secondaire, avait accepté d'inclure des garanties dans l'accord. Selon M. Altman, cet accord respecte les interdictions relatives à la surveillance de masse intérieure et exige la responsabilité humaine quant à l'usage de la force, y compris dans le cas des systèmes d'armes autonomes. Il a ajouté qu'OpenAI mettra en place des contrôles techniques destinés à s'assurer que ses modèles fonctionnent dans le cadre de ces paramètres.
La directive de Trump, publiée le même jour, enjoignait les agences fédérales à cesser toute collaboration avec Anthropic et à entamer une transition vers d'autres solutions. Trump a précisé que le ministère de la Défense et les autres agences utilisant déjà les systèmes d'Anthropic disposaient de six mois pour mener à bien cette transition, tandis que les autres services gouvernementaux devaient cesser immédiatement d'utiliser cette technologie . Trump a également indiqué que son administration engagerait des poursuites civiles et pénales si Anthropic ne coopérait pas à cette transition.
désignation de la chaîne d'approvisionnement
Le ministère de la Défense a annoncé qu'il désignerait Anthropic comme une entreprise à risque pour sa chaîne d'approvisionnement, une mesure qui découragerait ou restreindrait formellement l'utilisation de sa technologie dans le cadre de ses activités. Le secrétaire à la Défense, Pete Hegseth, a déclaré que la désignation faisait suite à un différend concernant la possibilité pour les politiques d'une entreprise privée de limiter l'utilisation militaire de systèmes d'IA de pointe. Le ministère n'a pas publié le texte de l'accord avec OpenAI, et OpenAI n'a pas précisé quels modèles seront déployés, l'étendue de l'accès ni les environnements classifiés concernés.
Anthropic a déclaré qu'elle contesterait en cour toute désignation de risque lié à sa chaîne d'approvisionnement et qu'elle maintiendrait sa position contre la surveillance intérieure de masse et les armes entièrement autonomes. Dans un communiqué, Anthropic a précisé qu'une désignation de risque lié à la chaîne d'approvisionnement en vertu de l'article 3252 du titre 10 du Code des États-Unis (10 USC 3252) peut s'appliquer à l'utilisation de ses modèles Claude dans le cadre de contrats du ministère de la Défense et ne régit pas l'utilisation que les contractants font de ses systèmes pour des travaux effectués en dehors de ces contrats. Anthropic a indiqué que ses outils ont été utilisés pour des travaux liés à la sécurité nationale , notamment des déploiements sur des infrastructures approuvées par le gouvernement.
Programmes d'IA de défense existants
Les développements d'OpenAI et d'Anthropic s'inscrivent dans une démarche plus large du ministère de la Défense visant à intégrer des outils d'IA commerciaux aux opérations militaires et d'entreprise. En juillet 2025, le Bureau du chef du numérique et de l'intelligence artificielle du département a annoncé l'attribution de contrats distincts, plafonnés à 200 millions de dollars chacun, à Anthropic, Google , OpenAI et xAI pour le prototypage de capacités d'IA de pointe destinées aux applications de sécurité nationale. Anthropic a par ailleurs indiqué avoir obtenu un accord de prototypage de deux ans, doté d'un plafond de 200 millions de dollars, pour développer et tester des capacités d'IA pour les opérations de défense.
Plus tôt ce mois-ci, OpenAI for Government a annoncé le déploiement d'une version personnalisée de ChatGPT sur GenAI.mil, la plateforme d'IA sécurisée du ministère de la Défense pour les travaux non classifiés, utilisée par environ 3 millions de civils et de militaires. OpenAI a précisé que le système fonctionne sur une infrastructure infonuagique gouvernementale autorisée, dotée de contrôles de sécurité intégrés, et que les données traitées sur GenAI.mil restent isolées au sein de l'environnement gouvernemental et ne sont pas utilisées pour entraîner ou améliorer les modèles publics ou commerciaux d'OpenAI. Le nouvel accord relatif au réseau classifié prévoit une procédure de déploiement distincte, les agences s'efforçant de se conformer à l'ordre de retrait progressif d'Anthropic émis par l'administration. – Par Content Syndication Services .
L'article « OpenAI décroche un contrat avec le Pentagone tandis que Trump abandonne Anthropic » est paru initialement dans le Little Rock Gazette .
