La semaine dernière, en avant La chercheuse en intelligence artificielle de Google, Timnit Gebru, a déclaré qu’elle avait été licenciée par la société après que des responsables lui aient demandé de se rétracter ou de retirer son nom d’un document de recherche, et elle s’est opposée. Google soutient qu’elle a démissionné et le PDG d’Alphabet, Sundar Pichai, a déclaré mercredi dans une note de l’entreprise qu’il enquêterait sur ce qui s’était passé.

L’épisode est un rappel précis de l’influence et du pouvoir des entreprises technologiques sur leur domaine. L’IA soutient des produits lucratifs comme le moteur de recherche de Google et l’assistant virtuel d’Amazon Alexa. Les grandes entreprises produisent des documents de recherche influents, financent des conférences universitaires, se font concurrence pour embaucher les meilleurs chercheurs et possèdent les centres de données nécessaires aux expériences d’IA à grande échelle. Une étude récente a révélé que la majorité des professeurs menant à la permanence dans quatre universités de premier plan qui divulguent des sources de financement avaient reçu le soutien de Big Tech.

Ben Recht, professeur agrégé à l’Université de Californie à Berkeley, qui a passé du temps chez Google en tant que professeur invité, dit que ses collègues chercheurs oublient parfois que l’intérêt des entreprises ne provient pas uniquement d’un amour pour la science. «La recherche en entreprise est incroyable, et il y a eu des choses incroyables qui sont sorties des Bell Labs, du PARC et de Google», dit-il. «Mais il est étrange de prétendre que la recherche universitaire et la recherche en entreprise sont identiques.»

Ali Alkhatib, chercheur au Center for Applied Data Ethics de l’Université de San Francisco, affirme que les questions soulevées par le traitement de Gebru par Google risquent de saper toutes les recherches de l’entreprise. «Cela semble précaire à citer parce qu’il peut y avoir des choses dans les coulisses, dont ils n’ont pas pu parler, dont nous apprendrons plus tard», dit-il.

Alkhatib, qui travaillait auparavant dans la division de recherche de Microsoft, dit comprendre que la recherche en entreprise comporte des contraintes. Mais il aimerait voir Google apporter des changements visibles pour regagner la confiance des chercheurs à l’intérieur et à l’extérieur de l’entreprise, peut-être en isolant son groupe de recherche des autres parties de Google.

Le document qui a conduit à la sortie de Gebru de Google a mis en évidence les questions éthiques soulevées par la technologie d’IA qui fonctionne avec le langage. Le responsable de la recherche de Google, Jeff Dean, a déclaré dans un communiqué la semaine dernière qu’il «ne respectait pas notre barre de publication».

Gebru a déclaré que les responsables avaient peut-être vu le travail comme une menace pour les intérêts commerciaux de Google, ou une excuse pour la renvoyer pour avoir critiqué le manque de diversité dans le groupe d’IA de la société. D’autres chercheurs de Google ont déclaré publiquement que Google semble avoir utilisé son processus d’examen de recherche interne pour la punir. Plus de 2300 employés de Google, dont de nombreux chercheurs en IA, ont signé une lettre ouverte demandant à l’entreprise d’établir des directives claires sur la manière dont la recherche sera traitée.

Meredith Whittaker, directrice de la faculté de l’institut AI Now de l’Université de New York, dit que ce qui est arrivé à Gebru est un rappel que, bien que des entreprises comme Google encouragent les chercheurs à se considérer comme des chercheurs indépendants, les entreprises donnent la priorité au résultat au-dessus des normes académiques. «C’est facile à oublier, mais à tout moment, une entreprise peut dynamiser votre travail ou le façonner pour qu’il fonctionne plus comme PR que comme production de connaissances dans l’intérêt public», dit-elle.

Whittaker a travaillé chez Google pendant 13 ans mais est partie en 2019, affirmant que la société avait exercé des représailles contre elle pour avoir organisé une grève pour harcèlement sexuel et pour saper son travail soulevant des préoccupations éthiques concernant l’IA. Elle a aidé à organiser des manifestations d’employés contre un contrat d’IA avec le Pentagone que l’entreprise a finalement abandonné, bien qu’elle ait pris d’autres contrats de défense.

image de l'article

Le guide WIRED de l’intelligence artificielle

Les algorithmes supersmart ne prendront pas tous les emplois, mais ils apprennent plus vite que jamais, allant des diagnostics médicaux à la diffusion d’annonces.

L’apprentissage automatique était une dimension obscure du milieu universitaire jusque vers 2012, lorsque Google et d’autres entreprises de technologie se sont vivement intéressés aux percées qui ont rendu les ordinateurs bien meilleurs pour reconnaître la parole et les images.

La société de recherche et de publicité, rapidement suivie par des rivaux tels que Facebook, a embauché et acquis des universitaires de premier plan et les a exhortés à continuer à publier des articles entre les travaux sur les systèmes de l’entreprise. Même Apple, traditionnellement discret, s’est engagé à devenir plus ouvert avec ses recherches, dans le but d’attirer les talents de l’IA. Des articles avec des auteurs d’entreprise et des participants avec des badges d’entreprise ont inondé les conférences qui sont les principaux lieux de publication du domaine.

LAISSER UN COMMENTAIRE

Rédigez votre commentaire !
Entrez votre nom ici