Google utilise souvent sa conférence annuelle des développeurs, I/O, pour présenter l’intelligence artificielle avec un facteur époustouflant. En 2016, il a présenté le haut-parleur intelligent Google Home avec Google Assistant. En 2018, Duplex a fait ses débuts pour répondre aux appels et planifier des rendez-vous pour les entreprises. Fidèle à cette tradition, le mois dernier, le PDG Sundar Pichai a présenté LaMDA, une IA « conçue pour avoir une conversation sur n’importe quel sujet ».

Dans une démo sur scène, Pichai a démontré ce que c’est que de converser avec un avion en papier et le corps céleste Pluton. Pour chaque requête, LaMDA a répondu avec trois ou quatre phrases censées ressembler à une conversation naturelle entre deux personnes. Au fil du temps, a déclaré Pichai, LaMDA pourrait être intégré aux produits Google, notamment Assistant, Workspace et, plus important encore, la recherche.

« Nous pensons que les capacités de conversation naturelles de LaMDA ont le potentiel de rendre l’information et l’informatique radicalement plus accessibles et plus faciles à utiliser », a déclaré Pichai.

La démonstration LaMDA offre une fenêtre sur la vision de Google pour la recherche qui va au-delà d’une liste de liens et pourrait changer la façon dont des milliards de personnes effectuent des recherches sur le Web. Cette vision est centrée sur l’IA qui peut inférer un sens à partir du langage humain, engager une conversation et répondre à des questions à multiples facettes comme un expert.

Toujours au niveau des E/S, Google a présenté un autre outil d’IA, baptisé Multitask Unified Model (MUM), qui peut prendre en compte les recherches avec du texte et des images. Le vice-président Prabhakar Raghavan a déclaré que les utilisateurs pourraient un jour prendre une photo d’une paire de chaussures et demander au moteur de recherche si les chaussures seraient bonnes à porter lors de l’ascension du mont Fuji.

MUM génère des résultats dans 75 langues, ce qui, selon Google, lui donne une compréhension plus complète du monde. Une démonstration sur scène a montré comment MUM répondrait à la requête de recherche «J’ai parcouru le mont. Adams et veulent maintenant faire de la randonnée au mont. Fuji l’automne prochain, que dois-je faire différemment ? » Cette requête de recherche est formulée différemment de celle que vous recherchez probablement sur Google aujourd’hui, car MUM est destiné à réduire le nombre de recherches nécessaires pour trouver une réponse. MUM peut à la fois résumer et générer du texte ; il saura comparer le mont Adams au mont Fuji et cette préparation de voyage peut nécessiter des résultats de recherche pour l’entraînement physique, des recommandations d’équipement de randonnée et des prévisions météorologiques.

Dans un article intitulé « Repenser la recherche : faire des experts des dilettantes », publié le mois dernier, quatre ingénieurs de Google Research ont envisagé la recherche comme une conversation avec des experts humains. Un exemple dans l’article considère la recherche « Quels sont les avantages et les risques pour la santé du vin rouge ? » Aujourd’hui, Google répond avec une liste de puces. L’article suggère qu’une réponse future pourrait ressembler davantage à un paragraphe disant que le vin rouge favorise la santé cardiovasculaire mais tache vos dents, avec des mentions et des liens vers les sources d’information. Le document montre la réponse sous forme de texte, mais il est également facile d’imaginer des réponses orales, comme l’expérience d’aujourd’hui avec Google Assistant.

Mais s’appuyer davantage sur l’IA pour déchiffrer le texte comporte également des risques, car les ordinateurs ont encore du mal à comprendre le langage dans toute sa complexité. L’IA la plus avancée pour des tâches telles que la génération de texte ou la réponse à des questions, connues sous le nom de grands modèles linguistiques, a montré une propension à amplifier les biais et à générer un texte imprévisible ou toxique. L’un de ces modèles, le GPT-3 d’OpenAI, a été utilisé pour créer des histoires interactives pour des personnages animés, mais a également généré du texte sur des scènes de sexe impliquant des enfants dans un jeu en ligne.

Dans le cadre d’un article et d’une démo publiés en ligne l’année dernière, des chercheurs du MIT, d’Intel et de Facebook ont ​​découvert que les grands modèles linguistiques présentaient des préjugés basés sur des stéréotypes sur la race, le sexe, la religion et la profession.

Rachael Tatman, linguiste titulaire d’un doctorat en éthique du traitement du langage naturel, affirme qu’à mesure que le texte généré par ces modèles devient plus convaincant, il peut amener les gens à croire qu’ils parlent avec une IA qui comprend le sens des mots qu’il est. générer, alors qu’en fait, il n’a aucune compréhension du monde de bon sens. Cela peut être un problème lorsqu’il génère un texte toxique pour les personnes handicapées ou les musulmans ou qu’il dit aux gens de se suicider. En grandissant, Tatman se souvient avoir été enseigné par un bibliothécaire à juger de la validité des résultats de recherche Google. Si Google combine de grands modèles linguistiques avec la recherche, dit-elle, les utilisateurs devront apprendre à évaluer les conversations avec des experts en IA.