Newsbit
Voir l'application
Voir

OpenAI a conclu un accord avec le ministère américain de la Défense pour déployer ses modèles d’IA sur des réseaux militaires classifiés. Cet accord intervient après que la Maison-Blanche a ordonné aux agences fédérales de cesser d’utiliser la technologie du concurrent Anthropic.

Le Pentagone qualifie Anthropic de risque pour la sécurité nationale

Le PDG Sam Altman a annoncé l’accord sur X. Selon lui, les modèles d’OpenAI seront disponibles sur le réseau classifié du Pentagone. Il a souligné que le ministère était prêt à opérer dans les limites fixées par l’entreprise.

L’annonce a suivi une décision du ministre de la Défense Pete Hegseth de qualifier Anthropic de « risque pour la sécurité nationale au sein de la chaîne d’approvisionnement », une désignation habituellement réservée aux adversaires étrangers. Les sous-traitants de la Défense doivent depuis lors déclarer ne pas utiliser les modèles d’Anthropic.

Le président Donald Trump a également ordonné à toutes les agences fédérales de cesser immédiatement d’utiliser la technologie d’Anthropic. Les organisations déjà dépendantes bénéficient d’une période de transition de six mois.

Anthropic a refusé les armes autonomes

Anthropic a été le premier à fournir des modèles d’IA dans l’environnement classifié du Pentagone, dans le cadre d’un contrat de 200 millions de dollars signé en juillet. La collaboration s’est arrêtée.

L’entreprise souhaitait des garanties que son logiciel ne serait pas utilisé pour des armes autonomes ou la surveillance de masse intérieure. Le ministère n’a pas pu garantir cela et a insisté sur une large utilisabilité pour toutes les fins militaires légitimes.

Anthropic a exprimé sa « profonde tristesse » et a annoncé son intention de contester juridiquement cette désignation. Selon l’entreprise, cette décision pourrait avoir des conséquences sur la manière dont les entreprises technologiques négocieront avec les agences gouvernementales à l’avenir.

OpenAI affirme appliquer les mêmes restrictions

Altman a affirmé qu’OpenAI applique des limites similaires. La surveillance de masse intérieure est, selon lui, interdite et la responsabilité humaine reste requise dans les décisions concernant l’usage de la force, y compris pour les systèmes d’armes automatisés. Aucun détail supplémentaire sur la collaboration n’a été communiqué.

Suite à l’annonce, des critiques ont émergé sur les réseaux sociaux. Le politicien américain Christopher Hale a déclaré avoir résilié son abonnement à ChatGPT et être passé à Anthropic. D’autres ont rappelé les déclarations antérieures d’OpenAI affirmant qu’il ne faciliterait jamais des applications militaires.

Qui savait ce que Trump allait dire ? La CFTC enquête sur des transactions suspectes sur le marché pétrolier

Qui savait ce que Trump allait dire ? La CFTC enquête sur des transactions suspectes sur le marché pétrolier

Qui savait ce que Trump allait dire ? La CFTC enquête sur des transactions suspectes sur le marché pétrolier
Janet Yellen critique sévèrement Trump : pression sur la Fed digne d’une « république bananière »
Le S&P 500 gagne près de 6 000 milliards de dollars en 2 semaines : un record en vue
Plus Marché news

Le plus lu

Prévisions du cours de l’XRP : un analyste dévoile ses attentes pour 2026
La France rapatrie son or des États-Unis tandis que les Pays-Bas et l’Allemagne le laissent sur place
Satoshi Nakamoto, fondateur du Bitcoin, fête ses 50 ans : le mystère de sa date de naissance