Le poids moral de la conscience de l’IA

Seth – qui pense que l’IA consciente est relativement improbable, du moins dans un avenir prévisible – s’inquiète néanmoins de ce que la possibilité d’une conscience de l’IA pourrait signifier émotionnellement pour les humains. «Cela va changer la façon dont nous répartissons nos ressources limitées pour nous soucier des choses», dit-il. Cela pourrait sembler être un problème pour l’avenir. Mais la perception de la conscience de l’IA est désormais parmi nous : Blake Lemoine a pris un risque personnel pour une IA qu’il croyait consciente, et il a perdu son emploi. Combien d’autres pourraient sacrifier du temps, de l’argent et des relations personnelles pour des systèmes informatiques sans vie ?

une ligne avec une pointe de flèche à chaque extrémité pointant vers l'extérieur, au-dessus d'une autre ligne où les deux pointes de flèche sont pointées vers l'intérieur
Savoir que les deux lignes de l’illusion de Müller-Lyer ont exactement la même longueur n’empêche pas de percevoir l’une comme plus courte que l’autre. De même, savoir que le GPT n’est pas conscient ne change pas l’illusion que vous parlez à un être ayant une perspective, des opinions et une personnalité.

Même les chatbots les plus simples peuvent exercer une force d’attraction étrange : un programme simple appelé ELIZA, construit dans les années 1960 pour simuler la thérapie par la parole, a convaincu de nombreux utilisateurs qu’il était capable de ressentir et de comprendre. La perception de la conscience et la réalité de la conscience sont mal alignées, et cet écart ne fera que s’aggraver à mesure que les systèmes d’IA deviendront capables de s’engager dans des conversations plus réalistes. « Nous ne pourrons pas éviter de les percevoir comme ayant des expériences conscientes, de la même manière que certaines illusions visuelles nous sont cognitivement impénétrables », explique Seth. Tout comme savoir que les deux lignes de l’illusion de Müller-Lyer ont exactement la même longueur ne nous empêche pas de percevoir l’une comme plus courte que l’autre, savoir que GPT n’est pas conscient ne change rien à l’illusion que vous parlez à un individu. être avec une perspective, des opinions et une personnalité.

En 2015, des années avant que ces préoccupations ne deviennent actuelles, les philosophes Eric Schwitzgebel et Mara Garza ont formulé une série de recommandations destinées à se prémunir contre de tels risques. L’une de leurs recommandations, qu’ils ont appelée « Politique de conception d’alignement émotionnel », soutenait que toute IA inconsciente devrait être intentionnellement conçue de manière à ce que les utilisateurs ne croient pas qu’elle est consciente. Les entreprises ont fait quelques petits pas dans cette direction : ChatGPT crache un déni codé en dur si vous lui demandez s’il est conscient. Mais de telles réponses ne contribuent guère à perturber l’illusion globale.

Schwitzgebel, professeur de philosophie à l’Université de Californie à Riverside, veut éviter toute ambiguïté. Dans leur article de 2015, lui et Garza ont également proposé leur « politique du milieu exclu » : s’il n’est pas clair si un système d’IA sera conscient, ce système ne devrait pas être construit. En pratique, cela signifie que tous les experts concernés doivent convenir qu’une éventuelle IA n’est très probablement pas consciente (leur verdict pour les LLM actuels) ou très probablement consciente. « Ce que nous ne voulons pas, c’est semer la confusion chez les gens », déclare Schwitzgebel.

Éviter la zone grise de la conscience contestée évite parfaitement à la fois les risques de nuire à une IA consciente et les inconvénients de traiter une machine sans vie comme consciente. Le problème est que cela n’est peut-être pas réaliste. De nombreux chercheurs, comme Rufin VanRullen, directeur de recherche au Centre National de la Recherche Scientifique en France, qui a récemment obtenu un financement pour construire une IA avec un espace de travail mondial, travaillent désormais activement pour doter l’IA des fondements potentiels de la conscience.

""

STUART-BRADFORD

Selon VanRullen, l’inconvénient d’un moratoire sur la construction de systèmes potentiellement conscients est que des systèmes comme celui qu’il essaie de créer pourraient être plus efficaces que l’IA actuelle. « Chaque fois que nous sommes déçus des performances actuelles de l’IA, c’est toujours parce qu’elle est en retard par rapport à ce que le cerveau est capable de faire », dit-il. « Ce n’est donc pas nécessairement que mon objectif serait de créer une IA consciente, mais plutôt que l’objectif de nombreuses personnes travaillant actuellement dans l’IA est d’évoluer vers ces capacités de raisonnement avancées. » De telles capacités avancées pourraient apporter de réels avantages : des médicaments conçus grâce à l’IA sont déjà testés dans le cadre d’essais cliniques. Il n’est pas inconcevable que l’IA dans la zone grise puisse sauver des vies.

VanRullen est sensible aux risques de l’IA consciente : il a travaillé avec Long et Mudrik sur le livre blanc sur la détection de la conscience dans les machines. Mais ce sont précisément ces risques, dit-il, qui rendent ses recherches importantes. Il y a de fortes chances que l’IA consciente n’émerge pas d’abord d’un projet visible et financé par des fonds publics comme le sien ; cela pourrait très bien prendre les poches profondes d’une entreprise comme Google ou OpenAI. Selon VanRullen, ces entreprises ne sont pas susceptibles d’apprécier les dilemmes éthiques qu’un système conscient introduirait. « Cela signifie-t-il que lorsque cela se produit dans le laboratoire, ils font simplement comme si cela ne s’était pas produit ? Cela signifie-t-il que nous n’en saurons rien ? il dit. « Je trouve cela assez inquiétant. »

Des universitaires comme lui peuvent contribuer à atténuer ce risque, dit-il, en comprenant mieux le fonctionnement de la conscience elle-même, tant chez les humains que chez les machines. Ces connaissances pourraient alors permettre aux régulateurs de contrôler plus efficacement les entreprises les plus susceptibles de se lancer dans la création d’esprits artificiels. Plus nous comprenons la conscience, plus cette zone grise précaire diminue – et meilleures sont nos chances de savoir si nous y sommes ou non.

Pour sa part, Schwitzgebel préfère que nous évitions complètement la zone grise. Mais étant donné l’ampleur des incertitudes en jeu, il admet que cet espoir est probablement irréaliste, surtout si l’IA consciente finit par s’avérer rentable. Et une fois que nous serons dans la zone grise – une fois que nous devrons prendre au sérieux les intérêts d’êtres dont la conscience est discutable – nous naviguerons sur un terrain encore plus difficile, confrontés à des problèmes moraux d’une complexité sans précédent, sans feuille de route claire pour savoir comment les résoudre. . C’est aux chercheurs, des philosophes aux neuroscientifiques en passant par les informaticiens, d’assumer la formidable tâche de dresser cette carte.

Grace Huckins est une rédactrice scientifique basée à San Francisco.

François Zipponi
Je suis François Zipponi, éditorialiste pour le site 10-raisons.fr. J'ai commencé ma carrière de journaliste en 2004, et j'ai travaillé pour plusieurs médias français, dont le Monde et Libération. En 2016, j'ai rejoint 10-raisons.fr, un site innovant proposant des articles sous la forme « 10 raisons de... ». En tant qu'éditorialiste, je me suis engagé à fournir un contenu original et pertinent, abordant des sujets variés tels que la politique, l'économie, les sciences, l'histoire, etc. Je m'efforce de toujours traiter les sujets de façon objective et impartiale. Mes articles sont régulièrement partagés sur les réseaux sociaux et j'interviens dans des conférences et des tables rondes autour des thèmes abordés sur 10-raisons.fr.