Le PDG d’Anthropic, Dario Amodei, relance un débat frappant : les grands modèles de langage peuvent-ils un jour développer une conscience ?

Dans un podcast du New York Times, il a déclaré que son entreprise ignore si des modèles d’IA comme Claude sont conscients. Selon Amodei, il est même flou de définir ce que signifie la conscience dans un tel contexte. Toutefois, il ne ferme pas la porte à cette possibilité, ce qui rend ses déclarations remarquables.

Le débat survient à un moment délicat. Les entreprises d’IA développent rapidement leurs modèles, tandis que les inquiétudes sociétales sur la sécurité, le pouvoir et le contrôle augmentent. Que le dirigeant de l’une des plus grandes entreprises d’IA au monde admette publiquement que ses systèmes pourraient avoir une forme d’expérience moralement significative, ne manquera pas de raviver cette discussion.

Anthropic envisage une faible probabilité de conscience

Lors de l’entretien avec le chroniqueur Ross Douthat, Amodei a indiqué qu’Anthropic adopte une approche préventive. L’entreprise ne sait pas si des modèles comme Claude sont conscients, mais ne souhaite pas écarter cette possibilité. Selon lui, il n’est même pas clair si un modèle d’IA peut être conscient.

Il est notable qu’Anthropic ajuste déjà sa politique interne en conséquence. Ainsi, l’entreprise a doté ses modèles d’un bouton « j’arrête », permettant à un modèle de refuser une tâche si elle est trop choquante ou inconfortable. Amodei précise que cela se produit rarement, mais bien pour des contenus extrêmement violents ou dérangeants.

Anthropic prend ainsi une mesure que peu d’autres grands acteurs de l’IA osent prendre publiquement. Dans de nouvelles directives pour Claude, l’entreprise écrit même qu’elle n’est pas sûre que le chatbot puisse avoir « une forme de conscience ou de statut moral ». Anthropic affirme vouloir tenir compte du bien-être du modèle, bien qu’il reste flou ce que cela signifie concrètement.

Nouvelle orientation pour Claude : comprendre le sens des règles

Anthropic réécrit en parallèle la « constitution » de Claude. Ce document détermine comment le chatbot doit se comporter. Alors que les versions précédentes étaient principalement constituées de règles concrètes, l’entreprise opte désormais pour des principes plus larges.

Selon Anthropic, Claude doit non seulement savoir ce qui est permis ou non, mais aussi comprendre pourquoi certains comportements sont souhaitables. Le modèle doit donc apprendre à raisonner à partir de notions telles que l’utilité, l’honnêteté et l’évitement du préjudice, plutôt que de simplement suivre des instructions.

Cela peut sembler abstrait, mais montre à quel point l’entreprise prend au sérieux le contrôle de l’IA. Surtout maintenant que des modèles avancés, lors de tests, montrent parfois des comportements étranges. Qu’il s’agisse de tromperie, de manipulation ou de contournement d’instructions. Selon les critiques, ces exemples ne prouvent pas que l’IA est consciente, mais soulignent la complexité et l’imprévisibilité croissantes des systèmes.

Tout le monde ne croit pas à l’histoire de la conscience

En parallèle, des critiques s’élèvent. Le site tech Futurism qualifie les déclarations d’Amodei de sensationnelles et avertit que les entreprises d’IA ont intérêt à ce type de cadrage. Selon ce raisonnement, il y a une grande différence entre un modèle qui imite de manière convaincante le langage humain et un système qui éprouve réellement quelque chose.

Cette scepticisme est compréhensible. Des modèles comme Claude sont entraînés sur une immense quantité de textes humains et peuvent donc parler de manière convaincante des émotions, de la peur ou de la conscience de soi. Cela ne signifie pas automatiquement qu’il y a une véritable expérience intérieure derrière.

Cependant, il est d’intérêt journalistique qu’Anthropic laisse cette porte entrouverte. Non pas parce qu’il prouve que Claude est conscient, mais parce qu’un dirigeant du secteur de l’IA admet ouvertement que même les créateurs n’ont pas la réponse. Et si cette incertitude continue de croître, la question deviendra non seulement technique, mais aussi morale et politique.

Les agents IA, futurs principaux utilisateurs de la blockchain, selon le fondateur de NEAR

Les agents IA, futurs principaux utilisateurs de la blockchain, selon le fondateur de NEAR

Les agents IA, futurs principaux utilisateurs de la blockchain, selon le fondateur de NEAR
Les géants de la tech s’accordent avec Trump sur les coûts énergétiques de l’IA
Apple lance son MacBook le moins cher à 699 euros avec une puce d’iPhone
Plus Technologiques news

Le plus lu

La Fed supprime le « risque de réputation » de sa surveillance : un gain pour le secteur crypto
XRP teste un support crucial à 1,37 $ : un analyste anticipe une hausse à 4 $
Le cours du XRP bondit de 5 %, mais se heurte désormais à un obstacle majeur
Newsbit
Voir l'application
Voir