Les forces armées américaines ont utilisé Claude lors des récentes attaques contre l’Iran, bien que le président Donald Trump ait interdit son utilisation quelques heures plus tôt.

Le modèle d’IA d’Anthropic a été considéré comme un « risque pour la sécurité nationale », tandis qu’OpenAI, la société derrière ChatGPT, a conclu un accord avec le ministère de la Défense.

Claude déployé en Iran

Selon le Wall Street Journal, le United States Central Command (CENTCOM) a utilisé Claude pour des missions militaires cruciales telles que l’analyse du renseignement, l’identification des cibles et la simulation de scénarios de combat.

Le modèle avait déjà été utilisé lors de l’opération américaine en janvier de cette année qui a conduit à l’arrestation du président vénézuélien Nicolás Maduro.

Depuis samedi matin, les États-Unis et Israël mènent conjointement des attaques contre l’Iran, causant notamment la mort d’Ali Khamenei, le guide suprême. L’Iran a déjà déclaré vouloir se venger « plus que jamais ». Parallèlement, Donald Trump a précisé que les bombardements se poursuivraient « aussi longtemps que nécessaire pour parvenir à la paix ».

Vendredi, Trump avait émis un décret ordonnant à toutes les agences fédérales de cesser immédiatement l’utilisation de la technologie d’Anthropic. Il a toutefois accordé une période de transition de six mois pour le Département de la Défense afin de retirer ces systèmes.

« Nous n’en avons pas besoin, nous ne le voulons pas, et nous ne collaborerons plus avec eux, » a déclaré Trump sur les réseaux sociaux. Il a également qualifié les employés d’Anthropic de « fous de gauche » dont « l’égoïsme met en danger des vies américaines et notre sécurité nationale ».

Le conflit entre Anthropic et le Pentagone, la haute direction de la défense américaine, durait depuis des mois. Le ministère réclamait un accès militaire illimité à Claude, mais Anthropic refusait de renoncer à ses limites de sécurité concernant les armes autonomes et la surveillance de masse, ce qui a exacerbé les tensions.

Vendredi, avant la mesure de Trump, le ministère de la Défense a décidé de classer Anthropic comme un « risque pour la sécurité nationale dans la chaîne d’approvisionnement ». Anthropic a exprimé sa « profonde tristesse » et a indiqué qu’il contesterait cette désignation sur le plan juridique.

OpenAI se positionne

Après l’interdiction d’Anthropic, un remplaçant a rapidement été trouvé en OpenAI. Vendredi, le PDG Sam Altman a annoncé l’accord.

OpenAI s’est montré prêt à travailler dans le cadre des restrictions de défense existantes sans déclencher de conflit public sur les conditions d’utilisation, facilitant ainsi la conclusion de l’accord sur le plan administratif et politique.

Parallèlement, OpenAI affirme, tout comme Anthropic, respecter des lignes rouges : pas de surveillance de masse intérieure et pas d’armes entièrement autonomes sans contrôle humain. La différence semble résider moins dans le contenu de ces limites que dans la manière dont elles ont été négociées et la façon dont la confrontation a été menée publiquement.

Panique sur les marchés : le pétrole dépasse 78 dollars, l’or à un niveau record et les bourses chutent

Panique sur les marchés : le pétrole dépasse 78 dollars, l’or à un niveau record et les bourses chutent

Panique sur les marchés : le pétrole dépasse 78 dollars, l’or à un niveau record et les bourses chutent
Le mineur de Bitcoin TeraWulf perd 1,66 dollar par action, le minage coûtant plus cher que le Bitcoin lui-même
Craignant un krach : les bourses d’Abu Dhabi et de Dubaï fermées deux jours après des attaques iraniennes
Plus Marché news

Le plus lu

« Le moment idéal pour XRP est arrivé », déclare le PDG d’Evernorth
La liste des détenteurs d’XRP révèle un seuil surprenant : si peu pour le top 10 %
XRP teste un support crucial à 1,37 $ : un analyste anticipe une hausse à 4 $
Newsbit
Voir l'application
Voir