Le ministère américain de la Défense et l’entreprise d’intelligence artificielle Anthropic sont en désaccord sur l’utilisation de l’IA dans l’armée. Les négociations sur le renouvellement d’un contrat ont échoué, car Anthropic souhaite imposer des restrictions supplémentaires à son modèle d’IA, Claude. Le Pentagone, de son côté, désire une plus grande marge de manÅ“uvre dans l’utilisation de cette technologie, tant que cela reste conforme à la loi.

Cette discussion soulève une question sensible : jusqu’où le gouvernement peut-il aller dans l’utilisation de systèmes d’IA puissants pour la surveillance et les applications militaires ?

Anthropic veut encadrer l’utilisation militaire de l’IA

D’après des sources, Anthropic souhaite intégrer des restrictions explicites à son modèle d’IA, Claude. L’entreprise entend empêcher que sa technologie ne soit utilisée pour la surveillance massive de citoyens américains ou pour le développement d’armes pouvant fonctionner sans intervention humaine.

Ceci la met en opposition avec le Pentagone. Le ministère américain de la Défense souhaite un usage aussi vaste que possible de Claude, tant que son emploi reste dans le cadre légal. Axios a fait état de ce désaccord.

Anthropic se positionne comme une entreprise d’IA priorisant la sécurité et l’éthique. Elle souhaite rendre ses modèles puissants accessibles aux gouvernements, mais uniquement sous des conditions strictes. C’est dans cette optique qu’elle a développé Claude Gov, une version spéciale pour les services de sécurité nationale américains.

Claude Gov est conçu pour traiter des informations sensibles, telles que des documents secrets, des rapports de renseignement et des données complexes de cybersécurité. Selon Anthropic, même cette version gouvernementale doit respecter les principes de sécurité propres à l’entreprise.

Un porte-parole d’Anthropic souligne que l’entreprise est « engagée à utiliser l’IA avancée pour soutenir la sécurité nationale des États-Unis » et évoque des « discussions constructives et de bonne foi » avec le ministère de la Défense.

Sean Parnell, porte-parole du Pentagone, indique dans une déclaration écrite que la relation avec Anthropic est en cours de révision. Selon lui, la sécurité nationale nécessite que les partenaires soient prêts à soutenir les militaires américains dans toutes les situations.

Le Pentagone s’intéresse aussi à ChatGPT et autres modèles d’IA

Dans les milieux de la défense, Anthropic est désormais perçue comme un risque potentiel dans la chaîne d’approvisionnement. Le ministère de la Défense pourrait même exiger des fournisseurs qu’ils attestent ne pas utiliser les modèles de l’entreprise.

Cela pourrait ouvrir des opportunités pour les concurrents. D’autres entreprises d’IA, dont OpenAI avec ChatGPT, Google avec Gemini et xAI avec Grok, collaborent, selon des sources, avec le Pentagone pour rendre leurs modèles conformes à une utilisation légale dans le domaine militaire.

Anthropic avait conclu l’année dernière un accord de deux ans avec le Pentagone pour un prototype de Claude Gov et Claude for Enterprise. L’issue des négociations actuelles pourrait influencer les futures discussions avec d’autres fournisseurs d’IA.

Tensions montent : l’Iran ferme partiellement le détroit d’Ormuz lors de discussions avec les États-Unis

Tensions montent : l’Iran ferme partiellement le détroit d’Ormuz lors de discussions avec les États-Unis

Tensions montent : l’Iran ferme partiellement le détroit d’Ormuz lors de discussions avec les États-Unis
Un analyste tire la sonnette d’alarme : le marché boursier pourrait continuer de chuter jusqu’en 2026
S&P 500 et Nasdaq dans le rouge : les investisseurs cherchent la sécurité
Plus Marché news

Le plus lu

Un trader chinois ayant gagné 3 milliards de dollars sur l’or parie maintenant sur un krach de l’argent
Ancien président de la CFTC : les banques devront utiliser XRP
Analyste : le cours du XRP pourrait exploser d’ici 2 à 3 semaines – voici pourquoi
Newsbit
Voir l'application
Voir