Newsbit
Voir l'application
Voir

Anthropic a repris ses discussions avec le ministère américain de la Défense, alors même que leurs relations semblaient complètement rompues ces derniers jours. L’entreprise d’IA derrière Claude ne souhaite pas voir sa technologie utilisée pour la surveillance de masse domestique ou les armes autonomes létales. Pourtant, le PDG Dario Amodei tente de relancer les négociations, selon des sources telles que le Financial Times et Bloomberg.

La clause éthique en point de rupture

Le différend portait sur le texte du contrat que le Pentagone souhaite utiliser pour accéder à Claude. Selon le Financial Times, une partie concernant l’analyse de données collectées à grande échelle était particulièrement sensible. Anthropic considère cela comme une porte ouverte vers des applications que l’entreprise cherche précisément à interdire.

Lorsque Anthropic a refusé de faire des concessions, le ministre de la Défense Pete Hegseth a menacé de classer l’entreprise comme « risque pour la chaîne d’approvisionnement ». Ce label peut avoir des conséquences graves, dissuadant fournisseurs et partenaires de collaborer avec Anthropic. The Verge décrit cette mesure comme faisant suite à des tentatives du Pentagone pour que Anthropic accorde plus de latitude à un usage militaire.

Pourquoi Anthropic revient à la table des négociations

Le retour d’Anthropic à la table des discussions ressemble fortement à une stratégie de limitation des dégâts. L’entreprise aime se positionner comme principielle, mais elle ne peut se permettre d’être définitivement exclue des contrats gouvernementaux américains. Les rapports mentionnent un accord de deux cents millions de dollars concernant l’utilisation de la technologie Anthropic dans le domaine de la sécurité nationale.

Selon le Financial Times, Amodei est en discussion avec le sous-secrétaire Emil Michael pour sauver les négociations. Toutefois, une forte irritation persiste en arrière-plan. L’article décrit comment le ton s’est durci entre les deux parties au cours de la période récente.

Pour le marché plus large de la tech et de l’IA, c’est un signal que les règles concernant les applications d’IA « autorisées » ne sont pas encore pleinement définies. Cela n’affecte pas seulement les contrats de défense, mais pose aussi la question de la sévérité avec laquelle les entreprises peuvent fixer leurs propres limites de sécurité sans perdre clients ou gouvernements.

OpenAI a comblé le vide mais a directement fait face à des critiques

Lorsque Anthropic a été temporairement écartée, OpenAI a pu rapidement se rapprocher du Pentagone. Mais cette précipitation a tourné à son désavantage. Sam Altman a admis peu de temps après qu’OpenAI n’aurait pas dû précipiter l’accord, admettant que cela pouvait sembler « opportuniste et bâclé ». OpenAI a indiqué qu’elle ajusterait les accords, ajoutant des restrictions supplémentaires concernant la surveillance et l’utilisation de l’IA sans contrôle humain.

Cela rend la situation d’autant plus délicate pour Anthropic. Si OpenAI parvient à trouver un langage contractuel que le Pentagone accepte, un précédent sera créé, difficile à ignorer pour d’autres entreprises d’IA. Si Anthropic réussit à revenir avec ses propres conditions, cela pourrait fixer une norme pour des restrictions plus strictes sur l’utilisation militaire de l’IA.

Offensive contre Nvidia : des milliards se dirigent vers les concurrents de puces IA

Offensive contre Nvidia : des milliards se dirigent vers les concurrents de puces IA

Offensive contre Nvidia : des milliards se dirigent vers les concurrents de puces IA
Trump accentue la pression sur l’Iran : les pourparlers avec les États-Unis en péril ?
Polymarket vise une levée de 400 millions de dollars : duel avec Kalshi en vue
Plus Marché news

Le plus lu

Rebond du marché des altcoins : Dogecoin, Shiba Inu et Cardano en forte hausse
Le cours du Bitcoin pourrait atteindre 1 million de dollars en raison du chaos mondial, selon Bitwise
La France rapatrie son or des États-Unis tandis que les Pays-Bas et l’Allemagne le laissent sur place