«Aujourd’hui, quand les gens veulent parler à n’importe quel assistant numérique, ils pensent à deux choses: qu’est-ce que je veux faire et comment devrais-je formuler ma commande pour y parvenir», dit Subramanya. «Je pense c’est très contre nature. Il y a un énorme fardeau cognitif lorsque les gens parlent à des assistants numériques; la conversation naturelle est un moyen d’alléger le fardeau cognitif. »

Rendre les conversations avec Assistant plus naturelles signifie améliorer sa résolution de référence, sa capacité à lier une phrase à une entité spécifique. Par exemple, si vous dites « Réglez un minuteur sur 10 minutes », puis dites « Changez-le en 12 minutes », un assistant vocal doit comprendre et résoudre ce à quoi vous faites référence lorsque vous dites « ça ».

Les nouveaux modèles NLU sont alimentés par une technologie d’apprentissage automatique, en particulier des représentations d’encodeurs bidirectionnels à partir de transformateurs, ou BERT. Google a dévoilé cette technique en 2018 et l’a d’abord appliquée à la recherche Google. La première technologie de compréhension du langage utilisée pour déconstruire chaque mot dans une phrase seule, mais BERT traite la relation entre tous les mots de la phrase, améliorant considérablement la capacité à identifier le contexte.

Un exemple de la façon dont BERT a amélioré la recherche (comme indiqué ici) est lorsque vous recherchez « Stationnement sur une colline sans bordure ». Avant, les résultats contenaient encore des collines avec des bordures. Après l’activation de BERT, les recherches Google ont proposé un site Web qui conseillait aux conducteurs de diriger les roues sur le côté de la route.

image de l'article

Avec les modèles BERT désormais utilisés pour les minuteries et les alarmes, Subramanya affirme que Assistant est désormais en mesure de répondre aux requêtes associées, comme les ajustements susmentionnés, avec une précision de près de 100%. Mais cette compréhension contextuelle supérieure ne fonctionne pas encore partout – Google affirme qu’il travaille lentement à intégrer les modèles mis à jour à davantage de tâches telles que les rappels et le contrôle des appareils domestiques intelligents.

William Wang, directeur du groupe Natural Language Processing de l’UC Santa Barbara, déclare que les améliorations apportées par Google sont radicales, d’autant plus que l’application du modèle BERT à la compréhension de la langue parlée n’est «pas une chose très facile à faire».

«Dans tout le domaine du traitement du langage naturel, après 2018, avec l’introduction de ce modèle BERT par Google, tout a changé», déclare Wang. «Le BERT comprend en fait ce qui suit naturellement d’une phrase à l’autre et quelle est la relation entre les phrases. Vous apprenez une représentation contextuelle du mot, des phrases et aussi des phrases, donc par rapport aux travaux antérieurs avant 2018, c’est beaucoup plus puissant. « 

La plupart de ces améliorations pourraient être reléguées aux minuteries et aux alarmes, mais vous volonté voir une amélioration générale de la capacité de l’assistant vocal à comprendre globalement le contexte. Par exemple, si vous lui demandez la météo à New York et que vous posez des questions telles que « Quel est le bâtiment le plus haut? » et « Qui l’a construit? » L’assistant continuera à fournir des réponses en sachant à quelle ville vous faites référence. Ce n’est pas tout à fait nouveau, mais la mise à jour rend l’assistant encore plus apte à résoudre ces énigmes contextuelles.

Noms des assistants d’enseignement

Vidéo: Google

L’assistant est désormais également plus apte à comprendre les noms uniques. Si vous avez essayé d’appeler ou d’envoyer un SMS à quelqu’un avec un nom inhabituel, il y a de fortes chances que cela prenne plusieurs essais ou ne fonctionne pas du tout, car l’Assistant Google ne connaissait pas la prononciation correcte.