Ces dernières années, de nombreux experts ont déjà mis en garde contre les risques de l’intelligence artificielle (IA). Bien que l’IA se développe rapidement et devienne un élément clé de notre société, les inquiétudes persistent.

Vitalik Buterin, cofondateur d’Ethereum (ETH), avertit désormais que les systèmes d’IA modernes posent des risques pour la confidentialité et la sécurité.

Pourquoi l’IA devient-elle de plus en plus risquée selon Buterin

Buterin souligne que l’IA gagne en puissance et en autonomie, augmentant ainsi le risque d’erreurs et d’abus. C’est pour cette raison qu’il préconise une approche « local-first ». Cela signifie que l’IA fonctionne autant que possible localement sur votre propre ordinateur, plutôt que dans le cloud, où les données des utilisateurs sont généralement stockées et traitées sur des serveurs externes.

Selon Buterin, cela présente des risques majeurs. Il affirme que les utilisateurs partagent en réalité leurs informations personnelles avec les entreprises derrière ces systèmes d’IA. « J’ai une profonde inquiétude à l’idée de confier toute notre vie personnelle à l’IA dans le cloud », écrit-il.

Le danger des agents IA

Dans son récent article de blog, Buterin explique que l’IA évolue actuellement de simples chatbots à des systèmes capables d’exécuter des tâches de manière autonome. Ces soi-disant agents IA peuvent utiliser des outils et prendre des décisions sans intervention humaine directe.

De plus, les agents IA peuvent mener des actions de manière autonome, comme modifier des paramètres ou envoyer des données. Cela peut s’avérer problématique si un tel système commet des erreurs ou est induit en erreur.

Buterin souligne que les modèles d’IA ne sont pas toujours fiables. Ils peuvent fournir des réponses erronées ou être influencés par des entrées malveillantes. Des recherches montrent qu’une partie des outils d’IA comporte même des risques cachés, tels que la collecte indésirable de données.

Il note également que de nombreux modèles d’IA dits open-source ne sont pas entièrement transparents, rendant difficile le contrôle des actions internes de ces systèmes.

IA locale et contrôle humain comme solution

Pour limiter ces risques, Buterin n’utilise que des IA qui fonctionnent localement. Cela signifie que les données restent sur son propre ordinateur et ne sont pas envoyées à des serveurs externes. Il combine cela avec des mesures de sécurité supplémentaires. Les processus sont ainsi isolés les uns des autres et l’IA a un accès limité aux fichiers et à internet.

Il utilise également un système de contrôle où l’IA ne peut pas réaliser d’actions importantes de manière autonome. L’IA fait une proposition, mais un humain doit d’abord l’approuver. Selon Buterin, cette combinaison rend l’utilisation de l’IA plus sûre.

Son message principal est que l’IA peut être utile, mais qu’elle n’est pas entièrement fiable. Les utilisateurs doivent donc, selon lui, être prudents avec cette technologie et choisir consciemment comment et où ils l’appliquent.

Le plus lu

Le cours du XRP répète exactement le schéma de 2017 : un analyste vise 18 dollars
Prévisions du cours de l’XRP : un analyste dévoile ses attentes pour 2026
Le PDG de Ripple anticipe l’adoption de la loi CLARITY d’ici fin mai 2026
Newsbit
Voir l'application
Voir