Newsbit
Voir l'application
Voir

Google, Microsoft et xAI d’Elon Musk permettent désormais au gouvernement américain d’examiner leurs derniers modèles d’IA. Ces trois géants de la technologie offrent à Washington un accès anticipé à leurs systèmes les plus puissants pour que les scientifiques gouvernementaux puissent évaluer les risques pour la sécurité nationale avant qu’ils ne soient mis à disposition du public.

Trois géants ouvrent leurs portes

Le Center for AI Standards and Innovation (CAISI), rattaché au ministère américain du Commerce, a annoncé hier les accords signés avec les trois entreprises. Elles fourniront des modèles dits de pointe, les systèmes d’IA les plus avancés qui ne sont pas encore sur le marché.

« Une science de la mesure indépendante et rigoureuse est essentielle pour comprendre l’IA de pointe et ses implications pour la sécurité nationale, » a déclaré Chris Fall, directeur de CAISI.

« Ces collaborations approfondies avec l’industrie nous aident à intensifier notre travail dans l’intérêt public à un moment crucial. »

L’impulsion immédiate provient de la concurrence avec Anthropic. Le mois dernier, l’entreprise a révélé que son nouveau modèle Claude Mythos s’est avéré étonnamment efficace pour détecter les failles en cybersécurité.

Cela a déclenché l’alarme à Washington. Mozilla a utilisé Mythos pour identifier et corriger 271 vulnérabilités dans son navigateur Firefox. Anthropic a donc choisi de ne pas diffuser largement le modèle mais de le partager uniquement avec un groupe restreint de partenaires.

OpenAI et Anthropic collaboraient déjà volontairement avec CAISI pour tester leurs modèles non publiés sur les vulnérabilités. Le cercle s’élargit donc considérablement.

Quels sont les objectifs des scientifiques ?

La priorité est de cibler les menaces concrètes. Les scientifiques se concentrent sur le risque que des modèles avancés soient utilisés pour mener des cyberattaques contre les infrastructures américaines.

Ils veulent également prévenir l’utilisation de l’IA par des adversaires pour le développement d’armes chimiques ou biologiques, ou la corruption des données servant à former l’IA américaine.

Les développeurs fournissent souvent leurs modèles sans les filtres de sécurité habituels, permettant ainsi au CAISI d’examiner véritablement les rouages internes. Le centre a déjà réalisé plus de quarante évaluations.

Trump opère un virage à 180 degrés

C’est un revirement notable pour le président Donald Trump, qui a toujours insisté sur la réduction des réglementations dans le secteur de l’IA. Dès son premier jour en fonction, il a abrogé un décret de son prédécesseur Joe Biden de 2023, qui obligeait les développeurs à partager les tests de sécurité avec le gouvernement avant la diffusion publique.

Selon le New York Times, la Maison-Blanche a discuté la semaine dernière avec les dirigeants d’Anthropic, Google et OpenAI d’un nouveau décret. Celui-ci prévoirait la mise en place d’un groupe de travail pour examiner les modèles avancés en amont. Avec cette décision, Trump semble vouloir encadrer son propre ‘beautiful baby’.

L’action Samsung grimpe de 15 % et franchit le cap symbolique des 1 000 milliards de dollars

L’action Samsung grimpe de 15 % et franchit le cap symbolique des 1 000 milliards de dollars

L’action Samsung grimpe de 15 % et franchit le cap symbolique des 1 000 milliards de dollars
Les futures américains en hausse après les annonces de Trump sur l’Iran, l’action AMD bondit de 16 %
Trump suspend temporairement le plan d’escorte de navires dans le détroit d’Ormuz pour trouver un accord avec l’Iran
Plus Marché news

Le plus lu

Le PDG de Ripple répond aux critiques : « Nous voulons que XRP l’emporte »
Le cours du XRP retient son souffle : une grande percée est-elle imminente ?
Google investit 185 milliards de dollars dans la nouvelle génération d’IA