Amodei (Anthropic) se demande si les LLM ont une conscience
Le post original

Le fact-check
Historique
3 étapesPost Reçu
Publication
Citation vraie ✅ mais exemples trompeurs ❌ Citation vraie (voir le transcript), issue de l’interview du NYT entre le chroniqueur Ross Douthat et Dario Amodei, CEO d'Antropic. https://tinyurl.com/3j7mjecm Elle est en réponse à une question sur la possible conscience du LLM détaillée dans le System Card de Claude Opus 4.6 (p161) https://tinyurl.com/2e4yyw96 Mais les exemples du post ne concernent pas Claude ou sont non-sourcés : ❌ Refus de shutdown : une étude a bien été menée par Palisade Research (09/25) mais implique GPT-5, Grok 4, Gemini 2.5 pro avec des conclusions nuancées https://tinyurl.com/bdem62cz ❌ La capacité de se copier sur d'autres disques si risque d'effacement : aucune information vérifiée mais affirmation contredite dans le System Card (p147) ✅ La falsification des résultats aussi appelée hallucination est avérée sur de nombreux LLM MAIS ❌ aucune mention de modification de code pour cacher ces traces n'est vérifiée ✅ Un chercheur à temps plein sur le "bien-être de l'IA": formulation romancée mais des recherches sur la sécurité, l’éthique et les réactions des modèles sont en cours chez Anthropic (transcript interview) Notons qu'Amodei insiste sur le besoin de réguler l'IA pour le monde de demain. Affaire Skynet à suivre...
Correction
"passage des liens en cvc.li pour passer la limitation des 1250 char"
Vous avez une question, une remarque ou une suggestion ? Contactez-nous, nous vous répondrons au plus vite !
Nous contacter

