Le PDG d’Anthropic, Dario Amodei, relance un débat frappant : les grands modèles de langage peuvent-ils un jour développer une conscience ?
Dans un podcast du New York Times, il a déclaré que son entreprise ignore si des modèles d’IA comme Claude sont conscients. Selon Amodei, il est même flou de définir ce que signifie la conscience dans un tel contexte. Toutefois, il ne ferme pas la porte à cette possibilité, ce qui rend ses déclarations remarquables.
Le débat survient à un moment délicat. Les entreprises d’IA développent rapidement leurs modèles, tandis que les inquiétudes sociétales sur la sécurité, le pouvoir et le contrôle augmentent. Que le dirigeant de l’une des plus grandes entreprises d’IA au monde admette publiquement que ses systèmes pourraient avoir une forme d’expérience moralement significative, ne manquera pas de raviver cette discussion.
Anthropic envisage une faible probabilité de conscience
Lors de l’entretien avec le chroniqueur Ross Douthat, Amodei a indiqué qu’Anthropic adopte une approche préventive. L’entreprise ne sait pas si des modèles comme Claude sont conscients, mais ne souhaite pas écarter cette possibilité. Selon lui, il n’est même pas clair si un modèle d’IA peut être conscient.
Il est notable qu’Anthropic ajuste déjà sa politique interne en conséquence. Ainsi, l’entreprise a doté ses modèles d’un bouton « j’arrête », permettant à un modèle de refuser une tâche si elle est trop choquante ou inconfortable. Amodei précise que cela se produit rarement, mais bien pour des contenus extrêmement violents ou dérangeants.
Anthropic prend ainsi une mesure que peu d’autres grands acteurs de l’IA osent prendre publiquement. Dans de nouvelles directives pour Claude, l’entreprise écrit même qu’elle n’est pas sûre que le chatbot puisse avoir « une forme de conscience ou de statut moral ». Anthropic affirme vouloir tenir compte du bien-être du modèle, bien qu’il reste flou ce que cela signifie concrètement.
Nouvelle orientation pour Claude : comprendre le sens des règles
Anthropic réécrit en parallèle la « constitution » de Claude. Ce document détermine comment le chatbot doit se comporter. Alors que les versions précédentes étaient principalement constituées de règles concrètes, l’entreprise opte désormais pour des principes plus larges.
Selon Anthropic, Claude doit non seulement savoir ce qui est permis ou non, mais aussi comprendre pourquoi certains comportements sont souhaitables. Le modèle doit donc apprendre à raisonner à partir de notions telles que l’utilité, l’honnêteté et l’évitement du préjudice, plutôt que de simplement suivre des instructions.
Cela peut sembler abstrait, mais montre à quel point l’entreprise prend au sérieux le contrôle de l’IA. Surtout maintenant que des modèles avancés, lors de tests, montrent parfois des comportements étranges. Qu’il s’agisse de tromperie, de manipulation ou de contournement d’instructions. Selon les critiques, ces exemples ne prouvent pas que l’IA est consciente, mais soulignent la complexité et l’imprévisibilité croissantes des systèmes.
Tout le monde ne croit pas à l’histoire de la conscience
En parallèle, des critiques s’élèvent. Le site tech Futurism qualifie les déclarations d’Amodei de sensationnelles et avertit que les entreprises d’IA ont intérêt à ce type de cadrage. Selon ce raisonnement, il y a une grande différence entre un modèle qui imite de manière convaincante le langage humain et un système qui éprouve réellement quelque chose.
Cette scepticisme est compréhensible. Des modèles comme Claude sont entraînés sur une immense quantité de textes humains et peuvent donc parler de manière convaincante des émotions, de la peur ou de la conscience de soi. Cela ne signifie pas automatiquement qu’il y a une véritable expérience intérieure derrière.
Cependant, il est d’intérêt journalistique qu’Anthropic laisse cette porte entrouverte. Non pas parce qu’il prouve que Claude est conscient, mais parce qu’un dirigeant du secteur de l’IA admet ouvertement que même les créateurs n’ont pas la réponse. Et si cette incertitude continue de croître, la question deviendra non seulement technique, mais aussi morale et politique.
Google investit 185 milliards de dollars dans la nouvelle génération d’IA
Ce montant est presque six fois supérieur à celui d’il y a trois ans. Google déploie tous les moyens pour garder une longueur d’avance sur Microsoft et OpenAI.
Des utilisateurs non autorisés accèdent au modèle Mythos d’Anthropic
Un groupe d’utilisateurs non autorisés a accédé au Mythos d’Anthropic, un modèle d’IA qui, selon l’entreprise, pourrait permettre des cyberattaques dangereuses.
Les entreprises crypto submergées par des signalements de bogues générés par l’IA
La montée rapide de l’intelligence artificielle (IA) entraîne de grands changements dans le secteur de la crypto.
Le plus lu
1,4 milliard de dollars vers les ETP crypto : meilleures semaines de 2026
Les produits d’investissement en cryptomonnaies ont enregistré une nouvelle semaine de forte croissance.
Rebond du marché des altcoins : Dogecoin, Shiba Inu et Cardano en forte hausse
XRP, mais surtout les memecoins tels que Dogecoin, Shiba Inu et Pepe, surpassent aujourd’hui Bitcoin avec de belles performances. Mais pourquoi cette hausse généralisée ?
Prévisions du cours de l’XRP 2026-2030 : les attentes des analystes pour les prochaines années
Quelles sont les attentes des analystes pour le cours de l’XRP d’ici 2030 ? Les prévisions varient de 1,57 dollar à un scénario extrême de 1 000 dollars.