Le PDG d’Anthropic, Dario Amodei, relance un débat frappant : les grands modèles de langage peuvent-ils un jour développer une conscience ?
Dans un podcast du New York Times, il a déclaré que son entreprise ignore si des modèles d’IA comme Claude sont conscients. Selon Amodei, il est même flou de définir ce que signifie la conscience dans un tel contexte. Toutefois, il ne ferme pas la porte à cette possibilité, ce qui rend ses déclarations remarquables.
Le débat survient à un moment délicat. Les entreprises d’IA développent rapidement leurs modèles, tandis que les inquiétudes sociétales sur la sécurité, le pouvoir et le contrôle augmentent. Que le dirigeant de l’une des plus grandes entreprises d’IA au monde admette publiquement que ses systèmes pourraient avoir une forme d’expérience moralement significative, ne manquera pas de raviver cette discussion.
Anthropic envisage une faible probabilité de conscience
Lors de l’entretien avec le chroniqueur Ross Douthat, Amodei a indiqué qu’Anthropic adopte une approche préventive. L’entreprise ne sait pas si des modèles comme Claude sont conscients, mais ne souhaite pas écarter cette possibilité. Selon lui, il n’est même pas clair si un modèle d’IA peut être conscient.
Il est notable qu’Anthropic ajuste déjà sa politique interne en conséquence. Ainsi, l’entreprise a doté ses modèles d’un bouton « j’arrête », permettant à un modèle de refuser une tâche si elle est trop choquante ou inconfortable. Amodei précise que cela se produit rarement, mais bien pour des contenus extrêmement violents ou dérangeants.
Anthropic prend ainsi une mesure que peu d’autres grands acteurs de l’IA osent prendre publiquement. Dans de nouvelles directives pour Claude, l’entreprise écrit même qu’elle n’est pas sûre que le chatbot puisse avoir « une forme de conscience ou de statut moral ». Anthropic affirme vouloir tenir compte du bien-être du modèle, bien qu’il reste flou ce que cela signifie concrètement.
Nouvelle orientation pour Claude : comprendre le sens des règles
Anthropic réécrit en parallèle la « constitution » de Claude. Ce document détermine comment le chatbot doit se comporter. Alors que les versions précédentes étaient principalement constituées de règles concrètes, l’entreprise opte désormais pour des principes plus larges.
Selon Anthropic, Claude doit non seulement savoir ce qui est permis ou non, mais aussi comprendre pourquoi certains comportements sont souhaitables. Le modèle doit donc apprendre à raisonner à partir de notions telles que l’utilité, l’honnêteté et l’évitement du préjudice, plutôt que de simplement suivre des instructions.
Cela peut sembler abstrait, mais montre à quel point l’entreprise prend au sérieux le contrôle de l’IA. Surtout maintenant que des modèles avancés, lors de tests, montrent parfois des comportements étranges. Qu’il s’agisse de tromperie, de manipulation ou de contournement d’instructions. Selon les critiques, ces exemples ne prouvent pas que l’IA est consciente, mais soulignent la complexité et l’imprévisibilité croissantes des systèmes.
Tout le monde ne croit pas à l’histoire de la conscience
En parallèle, des critiques s’élèvent. Le site tech Futurism qualifie les déclarations d’Amodei de sensationnelles et avertit que les entreprises d’IA ont intérêt à ce type de cadrage. Selon ce raisonnement, il y a une grande différence entre un modèle qui imite de manière convaincante le langage humain et un système qui éprouve réellement quelque chose.
Cette scepticisme est compréhensible. Des modèles comme Claude sont entraînés sur une immense quantité de textes humains et peuvent donc parler de manière convaincante des émotions, de la peur ou de la conscience de soi. Cela ne signifie pas automatiquement qu’il y a une véritable expérience intérieure derrière.
Cependant, il est d’intérêt journalistique qu’Anthropic laisse cette porte entrouverte. Non pas parce qu’il prouve que Claude est conscient, mais parce qu’un dirigeant du secteur de l’IA admet ouvertement que même les créateurs n’ont pas la réponse. Et si cette incertitude continue de croître, la question deviendra non seulement technique, mais aussi morale et politique.
Les agents IA, futurs principaux utilisateurs de la blockchain, selon le fondateur de NEAR
D’après NEAR, l’avenir de la crypto repose sur les agents IA, capables d’automatiser paiements, propriétés et transactions sur les blockchains.
Les géants de la tech s’accordent avec Trump sur les coûts énergétiques de l’IA
Sept grandes entreprises technologiques s’engagent à la Maison-Blanche à assumer elles-mêmes les coûts énergétiques de leurs centres de données IA pour protéger les citoyens.
Apple lance son MacBook le moins cher à 699 euros avec une puce d’iPhone
Apple présente le MacBook Neo à 699 euros, le MacBook le moins cher jamais produit. Pour la première fois, l’ordinateur portable fonctionne avec une puce d’iPhone.
Le plus lu
La Fed supprime le « risque de réputation » de sa surveillance : un gain pour le secteur crypto
La Fed envisage de supprimer le concept de « risque de réputation » de sa surveillance. Cela pourrait faciliter l’accès des entreprises crypto aux services bancaires.
XRP teste un support crucial à 1,37 $ : un analyste anticipe une hausse à 4 $
XRP teste un support pluriannuel autour de 1,37 dollar. Un analyste estime qu’il est prématuré de déclarer un marché baissier.
Le cours du XRP bondit de 5 %, mais se heurte désormais à un obstacle majeur
Le XRP monte avec le reste du marché des cryptomonnaies et atteint un niveau clé. Obtenez maintenant 15 XRP gratuits avec Bitpanda.