L’entreprise d’IA Anthropic affirme avoir été la cible d’attaques de « distillation » à grande échelle menées par trois entreprises chinoises spécialisées dans l’IA. Selon Anthropic, DeepSeek, Moonshot et MiniMax ont effectué plus de 16 millions d’interactions avec le chatbot Claude à travers environ 24 000 comptes frauduleux.

16 millions d’interactions avec Claude

Dans un billet de blog, Anthropic affirme que les trois entreprises ont systématiquement collecté des données de Claude, leur modèle de langage avancé. Cette collecte s’est faite via des dizaines de milliers de faux comptes, générant ensemble plus de 16 millions d’échanges.

L’objectif serait la distillation, une méthode d’apprentissage où un modèle plus petit ou moins puissant apprend des résultats d’un modèle plus fort, comme un élève recopiant les réponses du maître pour devenir plus intelligent.

« La distillation est une méthode d’apprentissage courante et légitime. Les principaux laboratoires d’IA distillent régulièrement leurs propres modèles pour créer des versions plus petites et moins coûteuses destinées à leurs clients », écrit Anthropic.

« Mais la distillation peut également être utilisée à des fins illégales : des concurrents peuvent l’exploiter pour s’approprier rapidement des capacités puissantes d’autres laboratoires à une fraction du coût et du temps que nécessiterait leur développement indépendant », ajoute-t-on.

D’après Anthropic, les campagnes ciblaient les fonctionnalités les plus distinctives de Claude, notamment le raisonnement agentiel, la programmation, l’analyse de données et la vision par ordinateur.

Anthropic est un développeur d’IA américain et un concurrent direct d’OpenAI. Plus tôt ce mois-ci, Anthropic a de nouveau fait les gros titres avec une levée de fonds prévue de plus de 20 milliards de dollars, ce qui pourrait porter sa valorisation à environ 350 milliards de dollars.

Les préoccupations géopolitiques s’intensifient

Les trois entreprises mentionnées sont basées en Chine et bénéficient de valorisations en milliards de dollars. DeepSeek est la plus connue à l’international.

Anthropic dit avoir identifié les parties impliquées grâce à la corrélation des adresses IP, des métadonnées des requêtes et des caractéristiques de l’infrastructure. Des partenaires de l’industrie auraient également observé des comportements similaires sur leurs plateformes.

L’entreprise élargit la question au-delà de la simple propriété intellectuelle. « Les laboratoires étrangers qui distillent des modèles américains peuvent ensuite alimenter ces capacités non protégées dans des systèmes militaires, de renseignement et de surveillance, permettant ainsi à des gouvernements autoritaires d’utiliser des IA avancées pour des cyberopérations offensives, des campagnes de désinformation et une surveillance de masse », selon Anthropic.

Ce sont des déclarations lourdes de sens. La crainte est que l’IA américaine avancée se retrouve indirectement dans des systèmes militaires ou de surveillance.

Anthropic affirme renforcer davantage la sécurité en mettant en place des contrôles d’accès plus stricts et de meilleurs systèmes de détection. L’entreprise appelle également les entreprises technologiques américaines, les fournisseurs de cloud et les décideurs politiques à agir de concert.

Secrets commerciaux de Google transmis à l’Iran : trois ingénieurs inculpés

Secrets commerciaux de Google transmis à l’Iran : trois ingénieurs inculpés

Secrets commerciaux de Google transmis à l’Iran : trois ingénieurs inculpés
Agents IA trop coûteux : les millionnaires de la tech s’interrogent sur les travailleurs numériques
Le président de la Fed qualifie les cryptos d’« inutiles » face à l’IA
Plus Technologiques news

Le plus lu

Analyste : le cours du XRP pourrait exploser d’ici 2 à 3 semaines – voici pourquoi
Le cours du XRP pourrait doubler avec la demande d’ETF de BlackRock, selon un analyste
XRP à 11 dollars ? Un analyste réputé anticipe une hausse spectaculaire
Newsbit
Voir l'application
Voir