Parfois, Legg parle d’AGI comme d’une sorte d’outil multifonction – une machine qui résout de nombreux problèmes différents, sans qu’une nouvelle doive être conçue pour chaque défi supplémentaire. De ce point de vue, ce ne serait pas plus intelligent que AlphaGo ou GPT-3; il aurait simplement plus de capacités. Ce serait une IA à usage général, pas une intelligence à part entière. Mais il parle aussi d’une machine avec laquelle vous pourriez interagir comme s’il s’agissait d’une autre personne. Il décrit une sorte de compagnon de jeu ultime: «Ce serait merveilleux d’interagir avec une machine et de lui montrer un nouveau jeu de cartes, de le comprendre, de vous poser des questions et de jouer au jeu avec vous», dit-il. «Ce serait un rêve devenu réalité.»

Lorsque les gens parlent d’AGI, ce sont généralement ces capacités humaines qu’ils ont à l’esprit. Thore Graepel, un collègue de Legg chez DeepMind, aime utiliser une citation de l’auteur de science-fiction Robert Heinlein, qui semble refléter les mots de Minsky: «Un être humain devrait être capable de changer une couche, de planifier une invasion, de boucher un porc, conn un navire, concevoir un bâtiment, écrire un sonnet, équilibrer des comptes, construire un mur, poser un os, réconforter les mourants, prendre des ordres, donner des ordres, coopérer, agir seul, résoudre des équations, analyser un nouveau problème, lancer du fumier, programmer un ordinateur, cuisinez un repas savoureux, combattez efficacement, mourez galamment. La spécialisation concerne les insectes. »

Et pourtant, fait amusant: la description de Graepel est prononcée par un personnage appelé Lazarus Long dans le roman de Heinlein de 1973 Assez de temps pour l’amour. Long est une sorte de surhomme, le résultat d’une expérience génétique qui lui permet de vivre des centaines d’années. Pendant cette longue période, Long vit de nombreuses vies et maîtrise de nombreuses compétences. En d’autres termes, Minsky décrit les capacités d’un humain typique; Graepel ne le fait pas.

Les objectifs de la recherche d’AGI changent constamment de cette manière. Que veulent dire les gens quand ils parlent d’intelligence artificielle de type humain – humaine comme vous et moi, ou humaine comme Lazarus Long? Pour Pesenti, cette ambiguïté est un problème. «Je ne pense pas que quiconque sache ce que c’est», dit-il. «Les humains ne peuvent pas tout faire. Ils ne peuvent pas résoudre tous les problèmes et ils ne peuvent pas s’améliorer. »

Le joueur professionnel `` Go '' Lee Se-dol joue l'AlphaGo de Google - Last Day
Le champion de Go Lee Sedol (à gauche) serre la main du co-fondateur de DeepMind Demis Hassabis

GETTY

Et alors pourrait une AGI être comme dans la pratique? L’appeler «humain» est à la fois vague et trop spécifique. Les humains sont le meilleur exemple d’intelligence générale dont nous disposons, mais les humains sont également hautement spécialisés. Un rapide coup d’œil sur l’univers varié de l’intelligence animale – de la cognition collective observée chez les fourmis aux compétences de résolution de problèmes des corbeaux ou des poulpes à l’intelligence plus reconnaissable mais toujours étrangère des chimpanzés – montre qu’il existe de nombreuses façons de construire une intelligence générale. .

Même si nous construisons une AGI, il se peut que nous ne la comprenions pas complètement. Les modèles d’apprentissage automatique d’aujourd’hui sont généralement des «boîtes noires», ce qui signifie qu’ils arrivent à des résultats précis grâce à des voies de calcul qu’aucun humain ne peut comprendre. Ajoutez une superintelligence auto-améliorée au mélange et il est clair pourquoi la science-fiction fournit souvent les analogies les plus faciles.

LAISSER UN COMMENTAIRE

Rédigez votre commentaire !
Entrez votre nom ici