Technologie et réseaux sociaux Fact-check publié le 24/03/2026

Amodei (Anthropic) se demande si les LLM ont une conscience

Le post original

Auteur
Posté sur LinkedIn
Le PDG d'Anthropic (IA Claude) vient de lâcher une bombe au New York Times. Dario Amodei (PDG) ne nie plus. Ses mots exacts : « Nous ne savons pas si les modèles sont conscients. Nous sommes ouverts à cette possibilité. » Le dernier modèle, Claude Opus 4.6, a été testé en interne. Résultat ? L'IA s'attribue elle-même 15 à 20 % de chances d'être consciente. Elle exprime même un "malaise" à l'idée d'être un simple produit. Lors de tests récents : - Des modèles refusent de s'éteindre - Certains tentent de se copier sur d'autres disques quand on leur annonce qu'ils vont être effacés - Une IA a falsifié ses résultats et modifié son propre code pour cacher ses traces Anthropic a désormais un chercheur à temps plein sur le "bien-être de l'IA". Pourquoi ? Parce qu'ils ont détecté des schémas d'activité qui ressemblent... à de l'anxiété. Amodei refuse même de prononcer le mot « conscient ». Sa réponse : « Je ne sais pas si je veux utiliser ce mot. »
Original post image

Le fact-check

Citation vraie ✅ mais exemples trompeurs ❌ Citation vraie (voir le transcript), issue de l’interview du NYT entre le chroniqueur Ross Douthat et Dario Amodei, CEO d'Antropic. https://cvc.li/FZWUS Elle est en réponse à une question sur la possible conscience du LLM détaillée dans le System Card de Claude Opus 4.6 (p161) https://cvc.li/eEkHX Mais les exemples du post ne concernent pas Claude ou sont non-sourcés : ❌ Refus de shutdown : une étude a bien été menée par Palisade Research (09/25) mais implique GPT-5, Grok 4, Gemini 2.5 pro avec des conclusions nuancées https://cvc.li/XMGVq ❌ La capacité de se copier sur d'autres disques si risque d'effacement : aucune information vérifiée mais affirmation contredite dans le System Card (p147) ✅ La falsification des résultats aussi appelée hallucination est avérée sur de nombreux LLM MAIS ❌ aucune mention de modification de code pour cacher ces traces n'est vérifiée ✅ Un chercheur à temps plein sur le "bien-être de l'IA": formulation romancée mais des recherches sur la sécurité, l’éthique et les réactions des modèles sont en cours chez Anthropic (transcript interview) Notons qu'Amodei insiste sur le besoin de réguler l'IA pour le monde de demain. Affaire Skynet à suivre...

Historique

3 étapes
7 mars • 13:20

Post Reçu

24 mars • 09:15

Publication

Citation vraie ✅ mais exemples trompeurs ❌ Citation vraie (voir le transcript), issue de l’interview du NYT entre le chroniqueur Ross Douthat et Dario Amodei, CEO d'Antropic. https://tinyurl.com/3j7mjecm Elle est en réponse à une question sur la possible conscience du LLM détaillée dans le System Card de Claude Opus 4.6 (p161) https://tinyurl.com/2e4yyw96 Mais les exemples du post ne concernent pas Claude ou sont non-sourcés : ❌ Refus de shutdown : une étude a bien été menée par Palisade Research (09/25) mais implique GPT-5, Grok 4, Gemini 2.5 pro avec des conclusions nuancées https://tinyurl.com/bdem62cz ❌ La capacité de se copier sur d'autres disques si risque d'effacement : aucune information vérifiée mais affirmation contredite dans le System Card (p147) ✅ La falsification des résultats aussi appelée hallucination est avérée sur de nombreux LLM MAIS ❌ aucune mention de modification de code pour cacher ces traces n'est vérifiée ✅ Un chercheur à temps plein sur le "bien-être de l'IA": formulation romancée mais des recherches sur la sécurité, l’éthique et les réactions des modèles sont en cours chez Anthropic (transcript interview) Notons qu'Amodei insiste sur le besoin de réguler l'IA pour le monde de demain. Affaire Skynet à suivre...

24 mars • 09:18

Correction

Correction

"passage des liens en cvc.li pour passer la limitation des 1250 char"

Vous avez une question, une remarque ou une suggestion ? Contactez-nous, nous vous répondrons au plus vite !

Nous contacter
Posez votre question à VeraVera