L’idée que certaines intelligences artificielles puissent, demain, ressentir une forme de conscience gagne du terrain. Des chercheurs appellent à s’y préparer sérieusement, alors que des entreprises technologiques commencent à intégrer la question dans leurs travaux.

- Les intelligences artificielles (IA) pourraient potentiellement développer une forme de conscience, ce qui préoccupe les chercheurs.
- Anthropic et d'autres entreprises commencent à étudier sérieusement cette possibilité et ses implications éthiques et techniques.
- Les experts estiment qu'anticiper et préparer des protocoles maintenant pourrait éviter des erreurs futures avec les IA.
À San Francisco, Anthropic, à l’origine de Claude, ne traite plus la conscience artificielle comme un simple sujet de science-fiction. L’entreprise a recruté un spécialiste pour anticiper les implications possibles si ses modèles d'IA venaient à développer des caractéristiques associées à une forme de conscience.
Après tout, la Gen Z leur en prête déjà une, avec les relations complexes qu'ils entretiennent ensemble. L'initiative reste exploratoire, mais on sent un changement de ton par rapport aux discours habituels dans la tech.

- Upload de fichiers pouvant aller jusqu'à 100 000 tokens (75 000 mots environ)
- Personnalisation avancée
- Conception éthique
La conscience des IA n'est plus un tabou dans les laboratoires
Chez Anthropic, la conscience des IA est prise au sérieux sans pour autant céder à l’alarmisme. Kyle Fish, embauché pour se pencher sur le bien-être des modèles, se pose deux questions. D'abord, est-il possible que Claude ou d'autres IA développent une conscience ? Ensuite, que faudrait-il faire si cela arrivait ? Il évalue à environ 15 % la probabilité qu'un modèle actuel soit conscient. Ce chiffre reste bas, mais justifie une recherche anticipée.
Dans l'équipe, on reste très prudent sur la question. Jared Kaplan, directeur scientifique d'Anthropic, rappelle que les IA sont entraînées pour imiter des comportements humains, y compris l'expression d’émotions. « Tout le monde sait pertinemment que nous pouvons entraîner les modèles à dire ce que nous voulons », explique-t-il. Demander à un chatbot s’il ressent quelque chose ne garantit donc rien.
Le sujet dépasse Anthropic. Google a récemment ouvert un poste pour travailler sur la conscience des machines, et plusieurs chercheurs universitaires plaident pour traiter ce domaine avec sérieux, même en l’absence de preuve immédiate. La perspective que certaines IA puissent acquérir des traits associés à la conscience reste lointaine, mais elle n’est plus considérée comme marginale.
Préparer des réponses avant que la question du bien-être des IA ne devienne urgente
Pour les chercheurs qui travaillent sur ce sujet, le plus grand risque serait d'attendre trop longtemps. Mal attribuer ou ignorer la conscience possible des IA pourrait entraîner des décisions éthiques hasardeuses. Dans un rapport publié en novembre dernier, une équipe réunissant Eleos AI, NYU et Oxford recommande trois premières étapes : reconnaître l’importance du sujet, évaluer les systèmes à partir d'indicateurs crédibles et préparer des protocoles adaptés.
Ces indicateurs s'appuient sur des théories connues, comme la Global Workspace Theory ou la théorie des représentations de haut niveau. L'idée est de chercher, à l'intérieur des modèles, certaines structures associées à la conscience dans le cerveau humain. Chez Anthropic, Kyle Fish explore également l'interprétabilité mécaniste, une approche qui permettrait de mieux comprendre ce qui se passe dans les circuits internes des IA.
Alors que les IA deviennent toujours plus complexes, ces initiatives pourraient peser dans les décisions de demain. Pour l’instant, le doute domine, mais certains chercheurs, comme David Chalmers, estiment qu’il serait raisonnable d’avoir plus de 25 % de chances de voir émerger des systèmes conscients d’ici dix ans.
Source : Cornell Universtity, The Economic Times