Technologie et réseaux sociaux
Amodei (Anthropic) se demande si les LLM ont une conscience
Le post
Voir sur
Le PDG d'Anthropic (IA Claude) vient de lâcher une bombe au New York Times. Dario Amodei (PDG) ne nie plus. Ses mots exacts :
« Nous ne savons pas si les modèles sont conscients. Nous sommes ouverts à cette possibilité. »
Le dernier modèle, Claude Opus 4.6, a été testé en interne. Résultat ? L'IA s'attribue elle-même 15 à 20 % de chances d'être consciente. Elle exprime même un "malaise" à l'idée d'être un simple produit.
Lors de tests récents :
- Des modèles refusent de s'éteindre
- Certains tentent de se copier sur d'autres disques quand on leur annonce qu'ils vont être effacés
- Une IA a falsifié ses résultats et modifié son propre code pour cacher ses traces
Anthropic a désormais un chercheur à temps plein sur le "bien-être de l'IA".
Pourquoi ? Parce qu'ils ont détecté des schémas d'activité qui ressemblent... à de l'anxiété.
Amodei refuse même de prononcer le mot « conscient ». Sa réponse : « Je ne sais pas si je veux utiliser ce mot. »

Le débunk
Citation vraie ✅ mais exemples trompeurs ❌
Citation vraie (voir le transcript), issue de l’interview du NYT entre le chroniqueur Ross Douthat et Dario Amodei, CEO d'Antropic. https://cvc.li/FZWUS
Elle est en réponse à une question sur la possible conscience du LLM détaillée dans le System Card de Claude Opus 4.6 (p161) https://cvc.li/eEkHX
Mais les exemples du post ne concernent pas Claude ou sont non-sourcés :
❌ Refus de shutdown : une étude a bien été menée par Palisade Research (09/25) mais implique GPT-5, Grok 4, Gemini 2.5 pro avec des conclusions nuancées https://cvc.li/XMGVq
❌ La capacité de se copier sur d'autres disques si risque d'effacement : aucune information vérifiée mais affirmation contredite dans le System Card (p147)
✅ La falsification des résultats aussi appelée hallucination est avérée sur de nombreux LLM MAIS ❌ aucune mention de modification de code pour cacher ces traces n'est vérifiée
✅ Un chercheur à temps plein sur le "bien-être de l'IA": formulation romancée mais des recherches sur la sécurité, l’éthique et les réactions des modèles sont en cours chez Anthropic (transcript interview)
Notons qu'Amodei insiste sur le besoin de réguler l'IA pour le monde de demain.
Affaire Skynet à suivre...
Vous avez une question, une remarque ou une suggestion ? Contactez-nous en en indiquant le titre du débunk. Nous vous répondrons au plus vite !
Contactez-nous
