Sam Altman, dirigeant d’OpenAI, tente de désamorcer un conflit latent entre l’entreprise d’IA Anthropic et le Pentagon américain. Dans une note interne, il informe les employés qu’OpenAI travaille sur un éventuel accord avec le ministère de la Défense pour autoriser les modèles d’IA dans des environnements secrets.
Parallèlement, il trace des lignes rouges claires. Pas de surveillance de masse ni d’armes autonomes létales. L’enjeu est de taille : il s’agit de l’avenir de l’intelligence artificielle sur le champ de bataille.
Sam Altman cherche un compromis avec le Pentagon
Selon The Wall Street Journal, OpenAI examine la possibilité d’utiliser ses modèles dans des systèmes militaires classifiés, tout en respectant les principes de sécurité de l’entreprise. Aucun accord n’a encore été signé et les discussions pourraient échouer.
Dans la note, Altman précise qu’OpenAI souhaite un contrat qui permette toutes les applications légales, à l’exception de celles qui sont illégales ou inappropriées pour un usage cloud. Il mentionne explicitement la surveillance de masse nationale et les armes offensives autonomes.
« Nous avons toujours estimé que l’IA ne doit pas être utilisée pour la surveillance de masse ou les armes autonomes létales, et que les humains doivent rester impliqués dans les décisions cruciales », souligne Altman.
Il rejoint ainsi la position d’Anthropic. Cette entreprise avait précédemment refusé de rendre son modèle Claude disponible sous les conditions générales du Pentagon, qui souhaitait que l’IA puisse être utilisée pour « tous les objectifs légaux ».
Anthropic contre Pentagon : une lutte pour le contrôle
Le conflit est né après que le dirigeant d’Anthropic, Dario Amodei, ait maintenu des conditions strictes pour l’utilisation militaire de l’IA. Le Pentagon ne veut pas que des entreprises privées dictent comment le gouvernement utilise la technologie pour la sécurité nationale, surtout dans la course technologique avec la Chine.
En parallèle, le secteur de l’IA craint qu’une interprétation trop large des « objectifs légaux » puisse créer des précédents dangereux. Chez OpenAI et Google, des employés ont même signé une lettre appelant leurs directions à résister aux pressions du ministère de la Défense.
Il est notable que l’entreprise d’IA d’Elon Musk, xAI, ait accepté l’exigence d’utiliser son modèle pour tous les objectifs légaux. Pourtant, ce modèle n’est pas considéré comme une alternative sérieuse à la technologie d’Anthropic.
Quels enjeux pour le secteur de l’IA ?
ChatGPT est déjà disponible dans des systèmes militaires non classifiés. Les discussions pour permettre son utilisation dans des environnements secrets se sont accélérées, selon des sources.
OpenAI souhaite, selon des initiés, intégrer des garanties techniques plutôt que de se contenter d’accords contractuels. Cela inclut des restrictions pour que les modèles d’IA soient limités à des environnements cloud, empêchant leur intégration directe dans des armes autonomes. L’entreprise envisage aussi d’employer du personnel habilité à surveiller leur usage.
Altman souligne que le conflit ne concerne plus seulement Anthropic et le Pentagon. « C’est une question pour tout le secteur », écrit-il. Il se dit prêt à contribuer à désamorcer la situation.
L’issue d’un éventuel accord reste incertaine. Mais il est évident que ses conséquences pourraient impacter l’ensemble de l’industrie de l’IA. Pour la première fois, les plus grandes entreprises d’IA semblent fixer ensemble des limites sur l’utilisation de leur technologie par les gouvernements.
Anthropic accuse des entreprises chinoises d’IA de vol massif de données
D’après Anthropic, Claude a été la cible d’attaques massives de distillation, possiblement aux répercussions géopolitiques.
Secrets commerciaux de Google transmis à l’Iran : trois ingénieurs inculpés
Trois ingénieurs de la Silicon Valley ont été inculpés pour avoir volé des secrets commerciaux de Google et transmis des données sensibles sur les puces et la cryptographie à l’Iran.
Agents IA trop coûteux : les millionnaires de la tech s’interrogent sur les travailleurs numériques
Les agents IA peuvent coûter plus de cent mille euros par an. Les investisseurs technologiques doutent qu’ils puissent un jour remplacer les employés humains.
Le plus lu
Analyste : le cours du XRP pourrait exploser d’ici 2 à 3 semaines – voici pourquoi
Un analyste identifie un plancher pour le XRP et anticipe une flambée explosive dans deux à trois semaines, s’appuyant sur des signaux techniques cruciaux.
Le cours du XRP pourrait doubler avec la demande d’ETF de BlackRock, selon un analyste
Un ETF XRP de BlackRock pourrait, d’après l’analyste Zach Rector, pousser le cours vers 3 dollars. L’afflux de capitaux institutionnels est en hausse.
XRP à 11 dollars ? Un analyste réputé anticipe une hausse spectaculaire
L’analyste crypto EGRAG prévoit que le cours du XRP pourrait atteindre 8 voire 11 dollars. Deux scénarios sont envisagés.