Maintenant, la réponse est là, et ce n’est pas du tout proche. Quatre ans après avoir annoncé un projet « fou incroyable » visant à créer une interface « parole silencieuse » utilisant la technologie optique pour lire les pensées, Facebook suspend le projet, affirmant que la lecture cérébrale des consommateurs reste encore très loin.

Dans un article de blog, Facebook a déclaré qu’il mettait fin au projet et se concentrerait plutôt sur un contrôleur de poignet expérimental pour la réalité virtuelle qui lit les signaux musculaires dans le bras. « Alors que nous croyons toujours au potentiel à long terme des appareils optiques montés sur la tête [brain-computer interface] technologies, nous avons décidé de concentrer nos efforts immédiats sur une approche d’interface neuronale différente qui a un chemin à plus court terme vers le marché », a déclaré la société.

Le projet de dactylographie cérébrale de Facebook l’avait conduit en territoire inconnu, notamment en finançant des chirurgies cérébrales dans un hôpital californien et en construisant des prototypes de casques pouvant projeter de la lumière à travers le crâne, et dans des débats difficiles sur la question de savoir si les entreprises technologiques devaient accéder aux informations privées sur le cerveau. En fin de compte, cependant, la société semble avoir décidé que la recherche ne mènerait tout simplement pas assez tôt à un produit.

« Nous avons acquis une grande expérience pratique avec ces technologies », explique Mark Chevillet, le physicien et neuroscientifique qui dirigeait jusqu’à l’année dernière le projet de parole silencieuse, mais a récemment changé de rôle pour étudier comment Facebook gère les élections. « C’est pourquoi nous pouvons affirmer avec confiance qu’en tant qu’interface grand public, un casque audio optique silencieux est encore très loin. Peut-être plus longtemps que nous ne l’aurions prévu.

Télépathie

La raison de l’engouement autour des interfaces cerveau-ordinateur est que les entreprises considèrent les logiciels contrôlés par l’esprit comme une énorme percée, aussi importante que la souris d’ordinateur, l’interface utilisateur graphique ou l’écran de balayage. De plus, les chercheurs ont déjà démontré que s’ils placent des électrodes directement dans le cerveau pour exploiter des neurones individuels, les résultats sont remarquables. Les patients paralysés avec de tels « implants » peuvent déplacer adroitement des bras robotiques et jouer à des jeux vidéo ou taper via le contrôle mental.

L’objectif de Facebook était de transformer ces découvertes en une technologie grand public que tout le monde pouvait utiliser, ce qui signifiait un casque ou un casque que vous pouviez mettre et enlever. «Nous n’avons jamais eu l’intention de fabriquer un produit de chirurgie cérébrale», explique Chevillet. Compte tenu des nombreux problèmes réglementaires du géant social, le PDG Mark Zuckerberg avait déclaré un jour que la dernière chose que l’entreprise devrait faire était d’ouvrir des crânes. « Je ne veux pas voir les audiences du Congrès sur celui-là », avait-il plaisanté.

En fait, au fur et à mesure que les interfaces cerveau-ordinateur progressent, il y a de nouvelles préoccupations sérieuses. Que se passerait-il si les grandes entreprises technologiques pouvaient connaître les pensées des gens ? Au Chili, les législateurs envisagent même un projet de loi sur les droits de l’homme pour protéger les données du cerveau, le libre arbitre et la vie privée des entreprises technologiques. Compte tenu du piètre bilan de Facebook en matière de confidentialité, la décision d’arrêter cette recherche peut avoir l’avantage secondaire de mettre une certaine distance entre l’entreprise et les inquiétudes croissantes concernant les « neurorights ».

Le projet de Facebook visait spécifiquement un contrôleur cérébral qui pourrait correspondre à ses ambitions en réalité virtuelle ; il a acheté Oculus VR en 2014 pour 2 milliards de dollars. Pour y arriver, l’entreprise a adopté une approche à deux volets, explique Chevillet. Tout d’abord, il devait déterminer si une interface pensée-parole était encore possible. Pour cela, il a parrainé des recherches à l’Université de Californie à San Francisco, où un chercheur du nom d’Edward Chang a placé des électrodes à la surface du cerveau des gens.

Alors que les électrodes implantées lisent les données de neurones uniques, cette technique, appelée électrocorticographie, ou ECoG, mesure à partir de groupes assez importants de neurones à la fois. Chevillet dit que Facebook espérait qu’il serait également possible de détecter des signaux équivalents de l’extérieur de la tête.

L’équipe de l’UCSF a fait des progrès surprenants et rapporte aujourd’hui dans le New England Journal of Medicine qu’elle a utilisé ces électrodes pour décoder la parole en temps réel. Le sujet était un homme de 36 ans que les chercheurs appellent « Bravo-1 », qui, après un grave accident vasculaire cérébral, a perdu sa capacité à former des mots intelligibles et ne peut que grogner ou gémir. Dans leur rapport, le groupe de Chang dit qu’avec les électrodes à la surface de son cerveau, Bravo-1 a été capable de former des phrases sur un ordinateur à un rythme d’environ 15 mots par minute. La technologie consiste à mesurer les signaux neuronaux dans la partie du cortex moteur associée aux efforts de Bravo-1 pour déplacer sa langue et ses voies vocales pendant qu’il imagine parler.

Pour atteindre ce résultat, l’équipe de Chang a demandé à Bravo-1 d’imaginer dire l’un des 50 mots courants près de 10 000 fois, alimentant les signaux neuronaux du patient à un modèle d’apprentissage en profondeur. Après avoir entraîné le modèle à faire correspondre les mots avec les signaux neuronaux, l’équipe a pu déterminer correctement le mot que Bravo-1 pensait dire 40% du temps (les résultats de chance auraient été d’environ 2%). Même ainsi, ses phrases étaient pleines d’erreurs. « Bonjour comment vas-tu? » pourrait sortir « Hungry comment allez-vous. »

Mais les scientifiques ont amélioré les performances en ajoutant un modèle de langage, un programme qui évalue les séquences de mots les plus probables en anglais. Cela a augmenté la précision à 75%. Avec cette approche cyborg, le système pouvait prédire que la phrase de Bravo-1 « I right my nurse » signifiait en réalité « J’aime mon infirmière ».

Aussi remarquable que soit le résultat, il y a plus de 170 000 mots en anglais, et donc les performances chuteraient en dehors du vocabulaire restreint de Bravo-1. Cela signifie que la technique, bien qu’elle puisse être utile comme aide médicale, n’est pas proche de ce que Facebook avait en tête. « Nous voyons des applications dans un avenir prévisible dans les technologies d’assistance clinique, mais ce n’est pas là que se situe notre activité », déclare Chevillet. « Nous nous concentrons sur les applications grand public, et il y a un très long chemin à parcourir pour cela. »

Module matériel de recherche FRLR BCI
Équipement développé par Facebook pour la tomographie optique diffuse, qui utilise la lumière pour mesurer les changements d’oxygène dans le sang dans le cerveau.

FACEBOOK

Panne optique

La décision de Facebook d’abandonner la lecture cérébrale ne choque pas les chercheurs qui étudient ces techniques. « Je ne peux pas dire que je suis surpris, car ils avaient laissé entendre qu’ils envisageaient un laps de temps court et qu’ils allaient réévaluer les choses », explique Marc Slutzky, professeur à Northwestern dont l’ancienne étudiante Emily Mugler était une embauche clé par Facebook et dirige maintenant son domaine de recherche sur les interfaces cérébrales. « En parlant d’expérience, l’objectif du décodage de la parole est un grand défi. Nous sommes encore loin d’une solution pratique et globale.

Pourtant, Slutsky dit que le projet UCSF est une « prochaine étape impressionnante » qui démontre à la fois des possibilités remarquables et certaines limites de la science de la lecture cérébrale. « Il reste à voir si vous pouvez décoder la parole libre », dit-il. « Un patient qui dit ‘Je veux un verre d’eau’ par opposition à ‘Je veux mon médicament’, eh bien, c’est différent.» Il dit que si les modèles d’intelligence artificielle pouvaient être entraînés plus longtemps et sur le cerveau de plusieurs personnes, ils pourraient s’améliorer rapidement.

Pendant que les recherches de l’UCSF se poursuivaient, Facebook payait également d’autres centres, comme le Applied Physics Lab de Johns Hopkins, pour découvrir comment pomper la lumière à travers le crâne pour lire les neurones de manière non invasive. Tout comme l’IRM, ces techniques reposent sur la détection de la lumière réfléchie pour mesurer la quantité de flux sanguin vers les régions du cerveau.

Ce sont ces techniques optiques qui restent la principale pierre d’achoppement. Même avec des améliorations récentes, dont certaines par Facebook, ils ne sont pas capables de capter les signaux neuronaux avec une résolution suffisante. Un autre problème, dit Chevillet, est que le flux sanguin détecté par ces méthodes se produit cinq secondes après le déclenchement d’un groupe de neurones, ce qui le rend trop lent pour contrôler un ordinateur.