Le ministère américain de la Défense et l’entreprise d’intelligence artificielle Anthropic sont en désaccord sur l’utilisation de l’IA dans l’armée. Les négociations sur le renouvellement d’un contrat ont échoué, car Anthropic souhaite imposer des restrictions supplémentaires à son modèle d’IA, Claude. Le Pentagone, de son côté, désire une plus grande marge de manœuvre dans l’utilisation de cette technologie, tant que cela reste conforme à la loi.

Cette discussion soulève une question sensible : jusqu’où le gouvernement peut-il aller dans l’utilisation de systèmes d’IA puissants pour la surveillance et les applications militaires ?

Anthropic veut encadrer l’utilisation militaire de l’IA

D’après des sources, Anthropic souhaite intégrer des restrictions explicites à son modèle d’IA, Claude. L’entreprise entend empêcher que sa technologie ne soit utilisée pour la surveillance massive de citoyens américains ou pour le développement d’armes pouvant fonctionner sans intervention humaine.

Ceci la met en opposition avec le Pentagone. Le ministère américain de la Défense souhaite un usage aussi vaste que possible de Claude, tant que son emploi reste dans le cadre légal. Axios a fait état de ce désaccord.

Anthropic se positionne comme une entreprise d’IA priorisant la sécurité et l’éthique. Elle souhaite rendre ses modèles puissants accessibles aux gouvernements, mais uniquement sous des conditions strictes. C’est dans cette optique qu’elle a développé Claude Gov, une version spéciale pour les services de sécurité nationale américains.

Claude Gov est conçu pour traiter des informations sensibles, telles que des documents secrets, des rapports de renseignement et des données complexes de cybersécurité. Selon Anthropic, même cette version gouvernementale doit respecter les principes de sécurité propres à l’entreprise.

Un porte-parole d’Anthropic souligne que l’entreprise est « engagée à utiliser l’IA avancée pour soutenir la sécurité nationale des États-Unis » et évoque des « discussions constructives et de bonne foi » avec le ministère de la Défense.

Sean Parnell, porte-parole du Pentagone, indique dans une déclaration écrite que la relation avec Anthropic est en cours de révision. Selon lui, la sécurité nationale nécessite que les partenaires soient prêts à soutenir les militaires américains dans toutes les situations.

Le Pentagone s’intéresse aussi à ChatGPT et autres modèles d’IA

Dans les milieux de la défense, Anthropic est désormais perçue comme un risque potentiel dans la chaîne d’approvisionnement. Le ministère de la Défense pourrait même exiger des fournisseurs qu’ils attestent ne pas utiliser les modèles de l’entreprise.

Cela pourrait ouvrir des opportunités pour les concurrents. D’autres entreprises d’IA, dont OpenAI avec ChatGPT, Google avec Gemini et xAI avec Grok, collaborent, selon des sources, avec le Pentagone pour rendre leurs modèles conformes à une utilisation légale dans le domaine militaire.

Anthropic avait conclu l’année dernière un accord de deux ans avec le Pentagone pour un prototype de Claude Gov et Claude for Enterprise. L’issue des négociations actuelles pourrait influencer les futures discussions avec d’autres fournisseurs d’IA.

L’Iran accorde une exemption à « son frère » l’Irak : navigation dans le détroit d’Hormuz autorisée

L’Iran accorde une exemption à « son frère » l’Irak : navigation dans le détroit d’Hormuz autorisée

L’Iran accorde une exemption à « son frère » l’Irak : navigation dans le détroit d’Hormuz autorisée
Prévisions pour l’action Nvidia en 2026 : attentes des analystes d’ici fin d’année
Les actions de luxe perdent 100 milliards, mais Deutsche Bank voit des opportunités
Plus Marché news

Le plus lu

La guerre en Iran impacte le marché immobilier : le taux hypothécaire aux États-Unis atteint un sommet de trois ans
Le cours du XRP répète exactement le schéma de 2017 : un analyste vise 18 dollars
Le PDG de Ripple anticipe l’adoption de la loi CLARITY d’ici fin mai 2026
Newsbit
Voir l'application
Voir