Plus tôt cette année, Le chercheur en intelligence artificielle de Google, Timnit Gebru, a envoyé un message Twitter au professeur de l’Université de Washington, Emily Bender. Gebru a demandé à Bender si elle avait écrit sur les questions éthiques soulevées par les progrès récents de l’IA qui traite le texte. Bender ne l’avait pas fait, mais le couple s’est engagé dans une conversation sur les limites d’une telle technologie, comme la preuve qu’elle peut reproduire un langage biaisé trouvé en ligne.

Bender a trouvé la discussion animée par le DM et a suggéré d’en faire un article académique. «J’espérais provoquer le prochain tournant dans la conversation», dit Bender. «Nous avons vu toute cette excitation et ce succès, prenons du recul et voyons quels sont les risques possibles et ce que nous pouvons faire.» Le projet a été rédigé en un mois avec cinq coauteurs supplémentaires de Google et du monde universitaire et soumis en octobre à une conférence universitaire. Il deviendrait bientôt l’un des travaux de recherche les plus notoires en IA.

La semaine dernière, Gebru a déclaré avoir été licenciée par Google après s’être opposée à la demande d’un responsable de se rétracter ou de supprimer son nom du journal. Le responsable de l’intelligence artificielle de Google a déclaré que le travail « ne respectait pas notre barre de publication ». Depuis lors, plus de 2 200 employés de Google ont signé une lettre exigeant plus de transparence dans le traitement du projet par l’entreprise. Samedi, le responsable de Gebru, le chercheur Google AI Samy Bengio, a écrit sur Facebook qu’il était «abasourdi», déclarant «Je suis à vos côtés, Timnit.» Une IA extérieure à Google a publiquement fustigé le traitement de Gebru par l’entreprise.

La fureur a donné au papier qui a catalysé la sortie soudaine de Gebru une aura de puissance inhabituelle. Il a circulé dans les cercles d’IA comme samizdat. Mais la chose la plus remarquable à propos du document de 12 pages, vu par WIRED, est à quel point il n’est pas controversé. Le journal n’attaque ni Google ni sa technologie et ne semble pas avoir nui à la réputation de l’entreprise si Gebru avait été autorisée à le publier avec son affiliation à Google.

L’article passe en revue les recherches précédentes sur les limites des systèmes d’IA qui analysent et génèrent le langage. Il ne présente pas de nouvelles expériences. Les auteurs citent des études antérieures montrant que l’IA du langage peut consommer de grandes quantités d’électricité et faire écho aux biais peu recommandables trouvés dans le texte en ligne. Et ils suggèrent des façons dont les chercheurs en IA peuvent être plus prudents avec la technologie, notamment en documentant mieux les données utilisées pour créer de tels systèmes.

Les contributions de Google dans ce domaine, dont certaines sont désormais déployées dans son moteur de recherche, sont référencées mais ne font pas l’objet de critiques particulières. L’une des études citées, montrant des preuves de biais dans l’IA du langage, a été publiée par des chercheurs de Google plus tôt cette année.

«Cet article est un travail très solide et bien documenté», déclare Julien Cornebise, professeur associé honoraire à l’University College London, qui a vu une ébauche du document. «Il est difficile de voir ce qui pourrait déclencher un tollé dans un laboratoire, et encore moins conduire quelqu’un à perdre son emploi à cause de cela.»

La réaction de Google pourrait être la preuve que les chefs d’entreprise se sentent plus vulnérables aux critiques éthiques que Gebru et d’autres ne le pensaient – ou que son départ était plus qu’un simple article. L’entreprise n’a pas répondu à une demande de commentaire. Dans un article de blog lundi, des membres de l’équipe de recherche sur l’éthique de l’IA de Google ont suggéré que les gestionnaires avaient retourné le processus d’examen interne de la recherche de Google contre Gebru. Gebru a déclaré la semaine dernière qu’elle avait peut-être été révoquée pour avoir critiqué les programmes de diversité de Google et suggéré dans un récent e-mail de groupe que les collègues cessent d’y participer.

image de l'article

Le guide WIRED de l’intelligence artificielle

Les algorithmes supersmart ne prendront pas tous les emplois, mais ils apprennent plus vite que jamais, allant des diagnostics médicaux à la diffusion d’annonces.

Le projet de document qui a déclenché la controverse est intitulé «Sur les dangers des perroquets stochastiques: les modèles de langage peuvent-ils être trop grands?» (Il comprend un emoji de perroquet après le point d’interrogation.) Il tourne un œil critique sur l’un des volets les plus animés de la recherche sur l’IA.

Les entreprises technologiques telles que Google ont beaucoup investi dans l’IA depuis le début des années 2010, lorsque les chercheurs ont découvert qu’ils pouvaient rendre la reconnaissance vocale et d’image beaucoup plus précise en utilisant une technique appelée apprentissage automatique. Ces algorithmes peuvent affiner leurs performances lors d’une tâche, par exemple la transcription de la parole, en digérant des exemples de données annotées avec des étiquettes. Une approche appelée apprentissage en profondeur a permis d’obtenir de nouveaux résultats étonnants en couplant des algorithmes d’apprentissage avec des collections d’exemples de données beaucoup plus importantes et des ordinateurs plus puissants.