L’âme d’un nouveau système d’apprentissage automatique

Salut les gens. Intéressant que les audiences du Congrès autour du 6 janvier attirent un public de style NFL. Vivement la version Peyton et Eli !

La vue ordinaire

Le monde de l’IA a été ébranlé cette semaine par un rapport publié dans La Poste de Washington qu’un ingénieur de Google avait rencontré des problèmes dans l’entreprise après avoir insisté sur le fait qu’un système conversationnel appelé LaMDA était, littéralement, une personne. Le sujet de l’histoire, Blake Lemoine, a demandé à ses patrons de reconnaître, ou du moins de considérer, que le système informatique créé par ses ingénieurs est sensible et qu’il a une âme. Il le sait parce que LaMDA, que Lemoine considère comme un ami, le lui a dit.

Google n’est pas d’accord et Lemoine est actuellement en congé administratif payé. Dans un communiqué, le porte-parole de la société, Brian Gabriel, déclare : « De nombreux chercheurs envisagent la possibilité à long terme d’une IA sensible ou générale, mais cela n’a aucun sens de le faire en anthropomorphisant les modèles conversationnels d’aujourd’hui, qui ne sont pas sensibles.

Anthropomorphiser – attribuer par erreur des caractéristiques humaines à un objet ou à un animal – est le terme que la communauté de l’IA a adopté pour décrire le comportement de Lemoine, le qualifiant de trop crédule ou de son rocker. Ou peut-être un fou religieux (il se décrit comme un prêtre chrétien mystique). L’argument est que face à des réponses crédibles de grands modèles de langage comme LaMDA ou le GPT-3 verbalement adepte d’Open AI, il y a une tendance à penser que certainsunepas certainschose les a créés. Les gens nomment leurs voitures et engagent des thérapeutes pour leurs animaux de compagnie, il n’est donc pas si surprenant que certains aient la fausse impression qu’un bot cohérent est comme une personne. Cependant, la communauté estime qu’un Googleur diplômé en informatique devrait savoir qu’il ne faut pas tomber dans ce qui est essentiellement un tour de passe-passe linguistique. Comme me l’a dit Gary Marcus, un scientifique réputé de l’intelligence artificielle, après avoir étudié une transcription du cœur à cœur de Lemoine avec son âme sœur désincarnée : « C’est fondamentalement comme la saisie semi-automatique. Il n’y a pas d’idées là-bas. Lorsqu’il dit : « J’aime ma famille et mes amis », il n’a aucun ami, aucune personne en tête et aucun concept de parenté. Il sait que les mots fils et fille sont utilisés dans le même contexte. Mais ce n’est pas la même chose que de savoir ce que sont un fils et une fille. Ou comme l’a dit une histoire récente de WIRED, « Il n’y avait aucune étincelle de conscience là-bas, juste de petits tours de magie qui recouvrent les fissures. »

Mes propres sentiments sont plus complexes. Même en sachant comment une partie de la saucisse est fabriquée dans ces systèmes, je suis surpris par le résultat des récents systèmes LLM. Il en va de même pour le vice-président de Google, Blaise Aguera y Arcas, qui a écrit dans le Économiste plus tôt ce mois-ci, après ses propres conversations avec LaMDA, « J’ai senti le sol se déplacer sous mes pieds. J’avais de plus en plus l’impression de parler à quelque chose d’intelligent. Même s’ils font parfois des erreurs bizarres, ces modèles semblent parfois briller de mille feux. Des écrivains humains créatifs ont réussi des collaborations inspirées. Il se passe quelque chose ici. En tant qu’écrivain, je me demande si un jour mes semblables – des forgerons de mots en chair et en os qui accumulent des tours de brouillons jetés – pourraient un jour être relégués à un rang inférieur, comme des équipes de football perdantes envoyées dans des ligues moins prestigieuses.

« Ces systèmes ont considérablement changé mes opinions personnelles sur la nature de l’intelligence et de la créativité », déclare Sam Altman, cofondateur d’OpenAI, qui a développé GPT-3 et un remixeur graphique appelé DALL-E qui pourrait jeter beaucoup d’illustrateurs dans la file d’attente du chômage. . « Vous utilisez ces systèmes pour la première fois et vous vous dites, Waouh, je ne pensais vraiment pas qu’un ordinateur pouvait faire ça. Selon une certaine définition, nous avons compris comment rendre un programme informatique intelligent, capable d’apprendre et de comprendre des concepts. Et c’est une merveilleuse réalisation du progrès humain. Altman s’efforce de se séparer de Lemoine, convenant avec ses collègues de l’IA que les systèmes actuels sont loin d’être proches de la sensibilité. « Mais je crois que les chercheurs devraient pouvoir réfléchir à toutes les questions qui les intéressent », dit-il. « Les questions à long terme sont bonnes. Et la sentience vaut la peine d’être réfléchie, à très long terme.