OpenAI a conclu un accord avec le ministère américain de la Défense pour déployer ses modèles d’IA sur des réseaux militaires classifiés. Cet accord intervient après que la Maison-Blanche a ordonné aux agences fédérales de cesser d’utiliser la technologie du concurrent Anthropic.

Le Pentagone qualifie Anthropic de risque pour la sécurité nationale

Le PDG Sam Altman a annoncé l’accord sur X. Selon lui, les modèles d’OpenAI seront disponibles sur le réseau classifié du Pentagone. Il a souligné que le ministère était prêt à opérer dans les limites fixées par l’entreprise.

L’annonce a suivi une décision du ministre de la Défense Pete Hegseth de qualifier Anthropic de « risque pour la sécurité nationale au sein de la chaîne d’approvisionnement », une désignation habituellement réservée aux adversaires étrangers. Les sous-traitants de la Défense doivent depuis lors déclarer ne pas utiliser les modèles d’Anthropic.

Le président Donald Trump a également ordonné à toutes les agences fédérales de cesser immédiatement d’utiliser la technologie d’Anthropic. Les organisations déjà dépendantes bénéficient d’une période de transition de six mois.

Anthropic a refusé les armes autonomes

Anthropic a été le premier à fournir des modèles d’IA dans l’environnement classifié du Pentagone, dans le cadre d’un contrat de 200 millions de dollars signé en juillet. La collaboration s’est arrêtée.

L’entreprise souhaitait des garanties que son logiciel ne serait pas utilisé pour des armes autonomes ou la surveillance de masse intérieure. Le ministère n’a pas pu garantir cela et a insisté sur une large utilisabilité pour toutes les fins militaires légitimes.

Anthropic a exprimé sa « profonde tristesse » et a annoncé son intention de contester juridiquement cette désignation. Selon l’entreprise, cette décision pourrait avoir des conséquences sur la manière dont les entreprises technologiques négocieront avec les agences gouvernementales à l’avenir.

OpenAI affirme appliquer les mêmes restrictions

Altman a affirmé qu’OpenAI applique des limites similaires. La surveillance de masse intérieure est, selon lui, interdite et la responsabilité humaine reste requise dans les décisions concernant l’usage de la force, y compris pour les systèmes d’armes automatisés. Aucun détail supplémentaire sur la collaboration n’a été communiqué.

Suite à l’annonce, des critiques ont émergé sur les réseaux sociaux. Le politicien américain Christopher Hale a déclaré avoir résilié son abonnement à ChatGPT et être passé à Anthropic. D’autres ont rappelé les déclarations antérieures d’OpenAI affirmant qu’il ne faciliterait jamais des applications militaires.

Goldman Sachs voit des opportunités au-delà de la tech : leurs trois secteurs favoris

Goldman Sachs voit des opportunités au-delà de la tech : leurs trois secteurs favoris

Goldman Sachs voit des opportunités au-delà de la tech : leurs trois secteurs favoris
Le prix de l’argent bondit de 6 % après les chiffres de l’inflation américaine, l’or progresse de 1 %
Les prix à la production aux États-Unis augmentent deux fois plus que prévu : une baisse des taux d’intérêt s’éloigne
Plus Marché news

Le plus lu

Le cours du XRP pourrait doubler avec la demande d’ETF de BlackRock, selon un analyste
XRP à 11 dollars ? Un analyste réputé anticipe une hausse spectaculaire
Prévisions du cours XRP : Quelle sera la valeur de 1 000 XRP fin T1 2026 ?
Newsbit
Voir l'application
Voir