Ce que l’histoire de l’IA nous dit sur son avenir

Mais ce que les ordinateurs étaient mauvais, traditionnellement, c’était la stratégie – la capacité de réfléchir à la forme d’un jeu de très nombreux coups dans le futur. C’est là que les humains avaient encore l’avantage.

C’est du moins ce que pensait Kasparov, jusqu’à ce que le mouvement de Deep Blue dans le match 2 le secoue. Cela semblait si sophistiqué que Kasparov commença à s’inquiéter : peut-être que la machine était bien meilleure qu’il ne le pensait ! Convaincu qu’il n’avait aucun moyen de gagner, il a démissionné le deuxième match.

Mais il n’aurait pas dû. Deep Blue, il s’avère, n’était pas vraiment bon. Kasparov n’avait pas réussi à repérer un mouvement qui aurait laissé le match se terminer par un match nul. Il s’énervait : craignant que la machine ne soit bien plus puissante qu’elle ne l’était réellement, il avait commencé à voir un raisonnement de type humain là où il n’en existait pas.

Coupé de son rythme, Kasparov a continué à jouer de pire en pire. Il s’est psyché encore et encore. Au début de la sixième partie où le vainqueur remporte tout, il a fait un mouvement si moche que les observateurs d’échecs ont crié sous le choc. « Je n’étais pas du tout d’humeur à jouer », a-t-il déclaré plus tard lors d’une conférence de presse.

IBM a profité de son moonshot. Dans la frénésie de la presse qui a suivi le succès de Deep Blue, la capitalisation boursière de la société a augmenté de 11,4 milliards de dollars en une seule semaine. Encore plus significatif, cependant, était que le triomphe d’IBM ressemblait à un dégel dans le long hiver de l’IA. Si les échecs pouvaient être conquis, quelle était la prochaine étape ? L’esprit du public a vacillé.

« C’est ça », me dit Campbell, « c’est ce qui a attiré l’attention des gens. »


La vérité est qu’il n’était pas surprenant qu’un ordinateur ait battu Kasparov. La plupart des gens qui avaient prêté attention à l’IA – et aux échecs – s’attendaient à ce que cela finisse par arriver.

Les échecs peuvent sembler être le summum de la pensée humaine, mais ce n’est pas le cas. En effet, c’est une tâche mentale qui se prête tout à fait au calcul par force brute : les règles sont claires, il n’y a pas d’informations cachées et un ordinateur n’a même pas besoin de garder une trace de ce qui s’est passé lors des mouvements précédents. Il évalue simplement la position des pièces en ce moment.

« Il y a très peu de problèmes où, comme aux échecs, vous avez toutes les informations dont vous pourriez avoir besoin pour prendre la bonne décision. »

Tout le monde savait qu’une fois que les ordinateurs seraient assez rapides, ils submergeraient un humain. C’était juste une question de quand. Au milieu des années 90, « l’écriture était déjà sur le mur, dans un sens », explique Demis Hassabis, chef de la société d’intelligence artificielle DeepMind, qui fait partie d’Alphabet.

La victoire de Deep Blue a été le moment qui a montré à quel point les systèmes codés à la main pouvaient être limités. IBM avait passé des années et des millions de dollars à développer un ordinateur pour jouer aux échecs. Mais il ne pouvait rien faire d’autre.

« Cela n’a pas conduit aux percées qui ont permis au [Deep Blue] L’IA aura un impact énorme sur le monde », déclare Campbell. Ils n’ont pas vraiment découvert de principes d’intelligence, car le monde réel ne ressemble pas aux échecs. « Il y a très peu de problèmes là-bas où, comme aux échecs, vous avez toutes les informations dont vous pourriez avoir besoin pour prendre la bonne décision », ajoute Campbell. « La plupart du temps, il y a des inconnues. Il y a du hasard.

Mais alors même que Deep Blue nettoyait le sol avec Kasparov, une poignée de débutants décousus bricolaient une forme d’IA radicalement plus prometteuse : le réseau neuronal.

Avec les réseaux de neurones, l’idée n’était pas, comme avec les systèmes experts, d’écrire patiemment des règles pour chaque décision que prendra une IA. Au lieu de cela, la formation et le renforcement renforcent les connexions internes dans une émulation approximative (selon la théorie) de la façon dont le cerveau humain apprend.

1997 : Après que Garry Kasparov ait battu Deep Blue en 1996, IBM a demandé au champion du monde d’échecs une revanche, qui a eu lieu à New York avec une machine améliorée.

AP PHOTO / ADAM NADEL

L’idée existait depuis les années 50. Mais la formation d’un réseau neuronal utilement grand nécessitait des ordinateurs ultrarapides, des tonnes de mémoire et beaucoup de données. Rien de tout cela n’était alors facilement disponible. Même dans les années 90, les réseaux de neurones étaient considérés comme une perte de temps.

« À l’époque, la plupart des gens dans le domaine de l’IA pensaient que les réseaux de neurones n’étaient que des ordures », déclare Geoff Hinton, professeur émérite d’informatique à l’Université de Toronto et pionnier dans le domaine. « J’ai été appelé un ‘vrai croyant' » – pas un compliment.

Mais dans les années 2000, l’industrie informatique évoluait pour rendre les réseaux de neurones viables. La soif des joueurs de jeux vidéo pour des graphismes toujours meilleurs a créé une énorme industrie dans les unités de traitement graphique ultrarapides, qui se sont avérées parfaitement adaptées aux mathématiques des réseaux neuronaux. Pendant ce temps, Internet explosait, produisant un torrent d’images et de textes pouvant être utilisés pour entraîner les systèmes.

Au début des années 2010, ces sauts techniques permettaient à Hinton et à son équipe de vrais croyants de porter les réseaux neuronaux vers de nouveaux sommets. Ils pourraient désormais créer des réseaux avec de nombreuses couches de neurones (c’est ce que signifie le « profond » dans « apprentissage en profondeur »). En 2012, son équipe a remporté haut la main le concours annuel Imagenet, où les IA s’affrontent pour reconnaître des éléments dans des images. Cela a stupéfié le monde de l’informatique : les machines autodidactes étaient enfin viables.

Dix ans après le début de la révolution de l’apprentissage en profondeur, les réseaux de neurones et leurs capacités de reconnaissance de modèles ont colonisé tous les recoins de la vie quotidienne. Ils aident Gmail à compléter automatiquement vos phrases, aident les banques à détecter les fraudes, permettent aux applications photo de reconnaître automatiquement les visages et, dans le cas de GPT-3 d’OpenAI et de Gopher de DeepMind, rédigent de longs essais à consonance humaine et résument des textes. Ils changent même la façon dont la science est faite; en 2020, DeepMind a lancé AlphaFold2, une IA qui peut prédire comment les protéines se replieront, une compétence surhumaine qui peut aider les chercheurs à développer de nouveaux médicaments et traitements.

Pendant ce temps, Deep Blue a disparu, ne laissant aucune invention utile dans son sillage. Il s’avère que jouer aux échecs n’était pas une compétence informatique nécessaire dans la vie de tous les jours. « Ce que Deep Blue a finalement montré, ce sont les lacunes d’essayer de tout fabriquer à la main », déclare Hassabis, fondateur de DeepMind.

IBM a tenté de remédier à la situation avec Watson, un autre système spécialisé, celui-ci conçu pour s’attaquer à un problème plus pratique : faire en sorte qu’une machine réponde à des questions. Il a utilisé l’analyse statistique de quantités massives de texte pour parvenir à une compréhension de la langue qui était, pour l’époque, à la pointe de la technologie. C’était plus qu’un simple système si-alors. Mais Watson a fait face à un timing malchanceux : il n’a été éclipsé que quelques années plus tard par la révolution de l’apprentissage en profondeur, qui a amené une génération de modèles de traitement du langage bien plus nuancés que les techniques statistiques de Watson.

L’apprentissage en profondeur a fait peu de cas de l’IA à l’ancienne précisément parce que «la reconnaissance des formes est incroyablement puissante», explique Daphne Koller, une ancienne professeure de Stanford qui a fondé et dirige Insitro, qui utilise des réseaux neuronaux et d’autres formes d’apprentissage automatique pour étudier de nouveaux traitements médicamenteux. La flexibilité des réseaux neuronaux – la grande variété de façons dont la reconnaissance de formes peut être utilisée – est la raison pour laquelle il n’y a pas encore eu d’autre hiver de l’IA. « L’apprentissage automatique a en fait apporté de la valeur », dit-elle, ce que les « vagues d’exubérance précédentes » de l’IA n’ont jamais fait.

Les fortunes inversées de Deep Blue et des réseaux de neurones montrent à quel point nous avons été mauvais, pendant si longtemps, pour juger ce qui est difficile et ce qui est précieux dans l’IA.

Pendant des décennies, les gens ont supposé que maîtriser les échecs serait important parce que, eh bien, les échecs sont difficiles à jouer à un niveau élevé pour les humains. Mais les échecs se sont avérés assez faciles à maîtriser pour les ordinateurs, car c’est tellement logique.

Ce qui était beaucoup plus difficile à apprendre pour les ordinateurs, c’était le travail mental occasionnel et inconscient que font les humains, comme mener une conversation animée, piloter une voiture dans la circulation ou lire l’état émotionnel d’un ami. Nous faisons ces choses si facilement que nous réalisons rarement à quel point elles sont délicates et à quel point elles nécessitent un jugement flou et en niveaux de gris. La grande utilité de l’apprentissage en profondeur vient de sa capacité à capturer de petits morceaux de cette intelligence humaine subtile et méconnue.


Pourtant, il n’y a pas de victoire finale dans l’intelligence artificielle. L’apprentissage en profondeur est peut-être en plein essor maintenant, mais il accumule également de vives critiques.

« Pendant très longtemps, il y a eu cet enthousiasme techno-chauvin qui dit que d’accord, l’IA va résoudre tous les problèmes ! » déclare Meredith Broussard, programmeuse devenue professeur de journalisme à l’université de New York et auteur de Non-intelligence artificielle. Mais comme elle et d’autres critiques l’ont souligné, les systèmes d’apprentissage en profondeur sont souvent formés sur des données biaisées et absorbent ces biais. Les informaticiens Joy Buolamwini et Timnit Gebru ont découvert que trois systèmes d’IA visuelle disponibles dans le commerce étaient terribles pour analyser les visages des femmes à la peau plus foncée. Amazon a formé une IA pour vérifier les CV, seulement pour découvrir qu’elle déclassait les femmes.

Bien que les informaticiens et de nombreux ingénieurs en intelligence artificielle soient désormais conscients de ces problèmes de biais, ils ne savent pas toujours comment les résoudre. En plus de cela, les réseaux de neurones sont également des «boîtes noires massives», explique Daniela Rus, une vétéran de l’IA qui dirige actuellement le laboratoire d’informatique et d’intelligence artificielle du MIT. Une fois qu’un réseau de neurones est formé, sa mécanique n’est pas facilement comprise, même par son créateur. On ne sait pas comment il arrive à ses conclusions ou comment il échouera.

« Pendant très longtemps, il y a eu cet enthousiasme techno-chauvin selon lequel OK, l’IA va résoudre tous les problèmes ! »

Ce n’est peut-être pas un problème, estime Rus, de s’appuyer sur une boîte noire pour une tâche qui n’est pas « critique pour la sécurité ». Mais qu’en est-il d’un travail à plus haut enjeu, comme la conduite autonome ? « C’est en fait assez remarquable que nous ayons pu leur accorder autant de confiance », dit-elle.

C’est là que Deep Blue avait un avantage. Le style de la vieille école des règles artisanales était peut-être fragile, mais il était compréhensible. La machine était complexe, mais ce n’était pas un mystère.


Ironiquement, cet ancien style de programmation pourrait faire son grand retour alors que les ingénieurs et les informaticiens s’attaquent aux limites de la correspondance de modèles.

Les générateurs de langage, comme GPT-3 d’OpenAI ou Gopher de DeepMind, peuvent prendre quelques phrases que vous avez écrites et continuer, en écrivant des pages et des pages de prose au son plausible. Mais malgré des mimiques impressionnantes, Gopher « ne comprend toujours pas vraiment ce qu’il dit », dit Hassabis. « Pas dans un vrai sens. »

De même, l’IA visuelle peut faire de terribles erreurs lorsqu’elle rencontre un cas limite. Des voitures autonomes ont percuté des camions de pompiers garés sur des autoroutes, car au cours des millions d’heures de vidéo sur lesquelles ils avaient été formés, ils n’avaient jamais rencontré cette situation. Les réseaux neuronaux ont, à leur manière, une version du problème de la « fragilité ».