Lorsque Neguine Rezaii a déménagé pour la première fois aux États-Unis il y a dix ans, elle a hésité à dire aux gens qu'elle était iranienne. Au lieu de cela, elle utiliserait le persan. «Je pensais que les gens ne sauraient probablement pas ce que c'était», dit-elle.

L'ambiguïté linguistique était utile: elle pouvait dissimuler sa gêne face au régime de Mahmoud Ahmadinejad tout en restant fidèle à elle-même. «Ils avaient l'habitude de sourire et de s'en aller», dit-elle. Ces jours-ci, elle est heureuse de dire à nouveau iranienne.

Nous n’avons pas tous choisi d’utiliser le langage aussi consciemment que Rezaii, mais les mots que nous utilisons comptent. Les poètes, les détectives et les avocats ont depuis longtemps passé au crible le langage des gens à la recherche d’indices permettant de rechercher leurs motivations et leurs vérités intérieures. Les psychiatres aussi: peut-être surtout les psychiatres. Après tout, alors que la médecine dispose désormais d'une batterie de tests et d'outils techniques pour diagnostiquer les maux physiques, l'outil principal de la psychiatrie est le même que celui utilisé il y a des siècles: la question «Alors, comment te sens-tu aujourd'hui?» Simple à demander, peut-être, mais pas à répondre.

«En psychiatrie, nous n’avons même pas de stéthoscope», explique Rezaii, qui est maintenant boursier en neuropsychiatrie au Massachusetts General Hospital. «Il s’agit de 45 minutes de conversation avec un patient et d’établissement d’un diagnostic sur la base de cette conversation. Il n'y a pas de mesures objectives. Pas de chiffres. »

Il n'y a pas de test sanguin pour diagnostiquer la dépression, pas de scan cérébral qui puisse localiser l'anxiété avant qu'elle ne survienne. Les pensées suicidaires ne peuvent pas être diagnostiquées par une biopsie, et même si les psychiatres sont profondément préoccupés par le fait que la pandémie de covid-19 aura des effets graves sur la santé mentale, ils n'ont pas de moyen facile de suivre cela. Dans le langage de la médecine, il n'y a pas un seul biomarqueur fiable qui puisse être utilisé pour aider à diagnostiquer une condition psychiatrique. La recherche de raccourcis pour trouver la corruption de la pensée ne cesse de se vider – gardant une grande partie de la psychiatrie dans le passé et bloquant la voie du progrès. Cela fait du diagnostic un processus lent, difficile et subjectif et empêche les chercheurs de comprendre la vraie nature et les causes du spectre des maladies mentales ou de développer de meilleurs traitements.

Mais que se passerait-il s'il y avait d'autres moyens? Et si nous n'écoutions pas seulement les mots mais les mesurions? Cela pourrait-il aider les psychiatres à suivre les indices verbaux qui pourraient nous ramener à notre état d'esprit?

«C’est essentiellement ce que nous recherchons», déclare Rezaii. «Trouver des caractéristiques comportementales auxquelles nous pouvons attribuer des numéros. Être en mesure de les suivre de manière fiable et de les utiliser pour la détection ou le diagnostic potentiels de troubles mentaux. »

En juin 2019, Rezaii a publié un article sur une nouvelle approche radicale qui a fait exactement cela. Ses recherches ont montré que la façon dont nous parlons et écrivons peut révéler des signes précoces de psychose et que les ordinateurs peuvent nous aider à repérer ces signes avec une précision déconcertante. Elle a suivi les miettes de la langue pour voir où elles menaient.

Rezaii a constaté que l'analyse du langage pouvait prédire avec une précision de plus de 90% quels patients étaient susceptibles de développer une schizophrénie avant l'apparition de tout symptôme typique.

Il s'avère que les gens qui ont tendance à entendre des voix ont tendance à en parler. Ils ne mentionnent pas ces hallucinations auditives de manière explicite, mais ils utilisent des mots associés – «son», «entendre», «chanter», «fort» – plus souvent dans une conversation régulière. Le motif est si subtil que vous ne pourriez pas repérer les pointes avec l'oreille nue. Mais un ordinateur peut les trouver. Et lors de tests avec des dizaines de patients psychiatriques, Rezaii a constaté que l'analyse du langage pouvait prédire lesquels d'entre eux étaient susceptibles de développer une schizophrénie avec une précision de plus de 90%, avant que des symptômes typiques n'apparaissent. Cela promettait un énorme bond en avant.

Dans le passé, la saisie d’informations sur une personne ou l’analyse des déclarations d’une personne pour poser un diagnostic reposait sur les compétences, l’expérience et les opinions de chaque psychiatre. Mais grâce à l’omniprésence des smartphones et des réseaux sociaux, la langue des gens n’a jamais été aussi facile à enregistrer, à numériser et à analyser. Et un nombre croissant de chercheurs examinent les données que nous produisons – du choix de notre langue ou de nos habitudes de sommeil à la fréquence à laquelle nous appelons nos amis et ce que nous écrivons sur Twitter et Facebook – pour rechercher des signes de dépression, d'anxiété, de trouble bipolaire. et d'autres syndromes.

Pour Rezaii et d'autres, la capacité de collecter ces données et de les analyser est la prochaine grande avancée en psychiatrie. Ils appellent cela le «phénotypage numérique».

Pesant tes mots

En 1908, le psychiatre suisse Eugen Bleuler a annoncé le nom d'une condition que lui et ses pairs étudiaient: la schizophrénie. Il a noté comment les symptômes de la maladie «trouvent leur expression dans le langage», mais a ajouté: «L'anomalie ne réside pas dans la langue elle-même mais dans ce qu'elle a à dire.»

Bleuler a été parmi les premiers à se concentrer sur ce qu'on appelle les symptômes «négatifs» de la schizophrénie, l'absence de quelque chose observé chez les personnes en bonne santé. Ceux-ci sont moins visibles que les symptômes dits positifs, qui indiquent la présence de quelque chose de plus, comme des hallucinations. L'un des symptômes négatifs les plus courants est l'alogie ou la pauvreté de la parole. Les patients parlent moins ou disent moins lorsqu'ils parlent, en utilisant des phrases vagues, répétitives et stéréotypées. Le résultat est ce que les psychiatres appellent une faible densité sémantique.

Une faible densité sémantique est un signe révélateur qu'un patient pourrait être à risque de psychose. La schizophrénie, une forme courante de psychose, a tendance à se développer de la fin de l'adolescence au début de la vingtaine pour les hommes et de la fin de la vingtaine au début de la trentaine pour les femmes, mais un stade préliminaire avec des symptômes plus légers précède généralement la maladie à part entière. De nombreuses recherches sont menées sur des personnes dans cette phase «prodromique», et des psychiatres comme Rezaii utilisent le langage et d'autres mesures du comportement pour essayer d'identifier les patients prodromiques qui développent une schizophrénie complète et pourquoi. S'appuyant sur d'autres projets de recherche suggérant, par exemple, que les personnes à haut risque de psychose ont tendance à utiliser moins de pronoms possessifs comme «mon», «son» ou «le nôtre», Rezaii et ses collègues voulaient voir si un ordinateur pouvait détecter une faible sémantique. densité.

Neguine Razai

JAKE BELCHER

Les chercheurs ont utilisé des enregistrements de conversations faites au cours de la dernière décennie environ avec deux groupes de patients schizophrènes à l'Université Emory. Ils ont divisé chaque phrase parlée en une série d'idées fondamentales afin qu'un ordinateur puisse mesurer la densité sémantique. La phrase «Eh bien, je pense que j'ai des sentiments forts pour la politique» obtient un score élevé, grâce aux mots «fort», «politique» et «sentiments».

Mais une phrase comme "Maintenant, maintenant je sais comment être cool avec les gens parce que c'est comme ne pas parler, c'est comme, c'est comme, tu sais comment être cool avec les gens, c'est comme maintenant je sais comment faire ça" a une sémantique très faible densité.

Dans un deuxième test, ils ont demandé à l'ordinateur de compter le nombre de fois où chaque patient a utilisé des mots associés au son – à la recherche d'indices sur les voix qu'il entendait peut-être mais en gardant le secret. Dans les deux cas, les chercheurs ont donné à l'ordinateur une base de discours «normal» en le nourrissant de conversations en ligne publiées par 30 000 utilisateurs de Reddit.

Lorsque les psychiatres rencontrent des personnes dans la phase prodromique, ils utilisent un ensemble standard d'entretiens et de tests cognitifs pour prédire lequel développera une psychose. Ils réussissent généralement 80% du temps. En combinant les deux analyses des modèles de discours, l’ordinateur de Rezaii a obtenu un score d’au moins 90%.

Elle dit qu'il reste encore beaucoup de chemin à parcourir avant que la découverte puisse être utilisée dans la clinique pour aider à prédire ce qui arrivera aux patients. L'étude a examiné le discours de seulement 40 personnes; la prochaine étape consisterait à augmenter la taille de l'échantillon. Mais elle travaille déjà sur un logiciel capable d'analyser rapidement les conversations qu'elle a avec les patients. «Alors vous appuyez sur le bouton et cela vous donne des chiffres. Quelle est la densité sémantique de la parole du patient? Quelles sont les caractéristiques subtiles dont le patient a parlé mais qui n’ont pas nécessairement été exprimées de manière explicite? » elle dit. "Si c'était un moyen d'entrer dans les couches les plus profondes et les plus subconscientes, ce serait très cool."

Les résultats ont également une implication évidente: si un ordinateur peut détecter de manière fiable ces changements subtils, pourquoi ne pas surveiller en permanence ceux qui sont à risque?

Plus qu'une simple schizophrénie

Environ une personne sur quatre dans le monde souffrira d'un syndrome psychiatrique au cours de sa vie. Deux sur quatre possèdent désormais un smartphone. L'utilisation des gadgets pour capturer et analyser les modèles de discours et de texte pourrait servir de système d'alerte précoce. Cela donnerait aux médecins le temps d'intervenir auprès des personnes les plus à risque, peut-être pour les surveiller de plus près – ou même pour essayer des thérapies pour réduire le risque d'un événement psychotique.

Les patients peuvent également utiliser la technologie pour surveiller leurs propres symptômes. Les patients en santé mentale sont souvent des narrateurs peu fiables en ce qui concerne leur santé – incapables ou peu disposés à identifier leurs symptômes. Même la surveillance numérique des mesures de base comme le nombre d'heures de sommeil d'une personne peut aider, dit Kit Huckvale, un stagiaire postdoctoral qui travaille sur la santé numérique au Black Dog Institute à Sydney, car il peut avertir les patients quand ils pourraient être les plus vulnérables. à un ralentissement de leur état.

Ce n’est pas seulement la schizophrénie qui peut être détectée avec une machine. En étudiant les téléphones des gens, les psychiatres ont pu détecter les signes subtils qui précèdent un épisode bipolaire.

«En utilisant ces ordinateurs que nous transportons tous avec nous, nous avons peut-être accès à des informations sur les changements de comportement, de cognition ou d'expérience qui fournissent des signaux robustes sur une maladie mentale future», dit-il. "Ou en fait, juste les premiers stades de la détresse."

Et ce n’est pas seulement la schizophrénie qui pourrait être détectée avec une machine. L'utilisation la plus avancée du phénotypage numérique est probablement de prédire les comportements des personnes atteintes de trouble bipolaire. En étudiant les téléphones des gens, les psychiatres ont pu détecter les signes subtils qui précèdent un épisode. Lorsqu’une baisse d’humeur arrive, les capteurs GPS des téléphones des patients bipolaires montrent qu’ils ont tendance à être moins actifs. Ils répondent moins aux appels entrants, font moins d'appels sortants et passent généralement plus de temps à regarder l'écran. En revanche, avant une phase maniaque, ils se déplacent davantage, envoient plus de SMS et passent plus de temps à parler au téléphone.

À partir de mars 2017, des centaines de patients sortis des hôpitaux psychiatriques de Copenhague se sont vus prêtés des téléphones personnalisés afin que les médecins puissent surveiller à distance leur activité et vérifier les signes de mauvaise humeur ou de manie. Si les chercheurs découvrent des schémas inhabituels ou inquiétants, les patients sont invités à parler à une infirmière. En surveillant et en réagissant aux signes avant-coureurs de cette manière, l'étude vise à réduire le nombre de patients qui connaissent une rechute grave.

De tels projets demandent le consentement des participants et promettent de garder les données confidentielles. Mais alors que les détails sur la santé mentale sont aspirés dans le monde des mégadonnées, les experts ont exprimé des inquiétudes concernant la confidentialité.

«L'adoption de cette technologie dépasse définitivement la réglementation légale. Cela dépasse même le débat public », déclare Piers Gooding, qui étudie le droit et les politiques de santé mentale au Melbourne Social Equity Institute en Australie. «Il doit y avoir un débat public sérieux sur l'utilisation des technologies numériques dans le contexte de la santé mentale.»

Déjà, les scientifiques ont utilisé des vidéos publiées par des familles sur YouTube – sans demander de consentement explicite – pour apprendre aux ordinateurs à détecter les mouvements corporels distinctifs des enfants autistes. D'autres ont passé au crible les publications sur Twitter pour aider à suivre les comportements associés à la transmission du VIH, tandis que les compagnies d'assurance à New York sont officiellement autorisées à étudier les flux Instagram des gens avant de calculer leurs primes d'assurance-vie.

Alors que la technologie suit et analyse nos comportements et nos modes de vie avec toujours plus de précision – parfois avec nos connaissances et parfois sans – les possibilités pour les autres de surveiller à distance notre état mental se multiplient rapidement.

Protection de la vie privée

En théorie, les lois sur la protection de la vie privée devraient empêcher la transmission de données sur la santé mentale. Aux États-Unis, la loi HIPAA, vieille de 24 ans, réglemente le partage des données médicales, et la loi européenne sur la protection des données, le RGPD, devrait théoriquement y mettre fin également. Mais un rapport de 2019 de l'organisme de surveillance de la surveillance Privacy International a révélé que des sites Web populaires sur la dépression en France, en Allemagne et au Royaume-Uni partageaient les données des utilisateurs avec des annonceurs, des courtiers en données et de grandes entreprises de technologie, tandis que certains sites Web proposant des tests de dépression divulguaient des réponses et des résultats de test à des tiers. des soirées.

Gooding souligne que pendant plusieurs années, la police canadienne transmettrait des détails sur les personnes qui tentaient de se suicider aux agents des frontières américaines, qui leur refusaient alors l'entrée. En 2017, une enquête a conclu que la pratique était illégale et a été stoppée.

Rares sont ceux qui contesteraient qu'il s'agissait d'une atteinte à la vie privée. L'information médicale est, après tout, censée être sacro-sainte. Même lorsque des diagnostics de maladie mentale sont posés, les lois du monde entier sont censées empêcher la discrimination sur le lieu de travail et ailleurs.

Mais certains éthiciens craignent que le phénotypage numérique brouille les lignes sur ce qui pourrait ou devrait être classé, réglementé et protégé en tant que données médicales.

Si les détails de notre vie quotidienne sont passés au crible à la recherche d'indices sur notre santé mentale, alors notre «épuisement numérique» – des données sur les mots que nous choisissons, la rapidité avec laquelle nous répondons aux textes et les appels, la fréquence à laquelle nous glissons vers la gauche, les messages que nous choisissons comme – pourrait en dire au moins autant sur notre état d'esprit que sur ce qui se trouve dans nos dossiers médicaux confidentiels. Et il est presque impossible de se cacher.

«La technologie nous a poussés au-delà des paradigmes traditionnels censés protéger certains types d'informations», déclare Nicole Martinez-Martin, bioéthicienne à Stanford. «Lorsque toutes les données sont potentiellement des données sur la santé, alors il y a beaucoup de questions à savoir si ce type d'exceptionnalisme des informations sur la santé a même plus de sens.»

Les informations sur les soins de santé, ajoute-t-elle, étaient auparavant simples à classer – et donc à protéger – parce qu'elles étaient produites par des prestataires de soins de santé et conservées dans des établissements de soins de santé, chacun ayant ses propres réglementations pour protéger les besoins et les droits des ses patients. Aujourd'hui, de nombreuses méthodes de suivi et de surveillance de la santé mentale en utilisant les signaux de nos actions quotidiennes sont développées par des entreprises commerciales, ce qui ne l'est pas.

Facebook, par exemple, prétend utiliser des algorithmes d'IA pour trouver des personnes à risque de suicide, en filtrant le langage dans les publications et les commentaires préoccupés d'amis et de famille. La société affirme avoir alerté les autorités pour qu'elles aident les gens dans au moins 3 500 cas. Mais des chercheurs indépendants se plaignent de ne pas avoir révélé comment son système fonctionne ou ce qu'il fait avec les données qu'il recueille.

«Bien que les efforts de prévention du suicide soient d'une importance vitale, ce n'est pas la réponse», dit Gooding. «Il n'y a aucune recherche sur l'exactitude, l'échelle ou l'efficacité de l'initiative, ni aucune information sur ce que l'entreprise fait précisément avec les informations après chaque crise apparente. Il est essentiellement caché derrière un rideau de lois sur le secret commercial. "

Les problèmes ne se situent pas uniquement dans le secteur privé. Bien que les chercheurs travaillant dans des universités et des instituts de recherche soient soumis à un réseau d'autorisations pour garantir le consentement, la confidentialité et l'approbation éthique, certaines pratiques académiques pourraient en fait encourager et permettre l'utilisation abusive du phénotypage numérique, souligne Rezaii.

«Quand j'ai publié mon article sur la prédiction de la schizophrénie, les éditeurs voulaient que le code soit ouvertement accessible, et j'ai dit très bien parce que j'aimais les choses libérales et gratuites. Mais que se passe-t-il si quelqu'un utilise cela pour créer une application et prédire des choses sur des adolescents étranges? C’est risqué », dit-elle. «Les revues préconisent la publication gratuite des algorithmes. Il a été téléchargé 1 060 fois à ce jour. Je ne sais pas dans quel but et cela me met mal à l'aise.

Au-delà des problèmes de confidentialité, certains craignent que le phénotypage numérique soit tout simplement surpassé.

Serife Tekin, qui étudie la philosophie de la psychiatrie à l'Université du Texas à San Antonio, affirme que les psychiatres utilisent depuis longtemps les dernières technologies pour essayer de faire en sorte que leurs diagnostics et traitements semblent davantage fondés sur des preuves. Des lobotomies à la promesse colorée des scintigraphies cérébrales, le domaine a tendance à évoluer avec d'énormes poussées d'optimisme non critique qui se révèlent plus tard sans fondement, dit-elle – et le phénotypage numérique pourrait être simplement le dernier exemple.

«La psychiatrie contemporaine est en crise», dit-elle. «Mais la question de savoir si la solution à la crise de la recherche en santé mentale est le phénotypage numérique est discutable. Lorsque nous mettons tous nos œufs dans le même panier, cela n’est pas vraiment lié à la complexité du problème. »

Rendre la santé mentale plus moderne?

Neguine Rezaii sait qu'elle et d'autres personnes travaillant sur le phénotypage numérique sont parfois aveuglées par le potentiel brillant de la technologie. "Il y a des choses auxquelles je n'ai pas pensé parce que nous sommes très enthousiastes à l'idée d'obtenir autant de données que possible sur ce signal caché dans le langage", dit-elle.

Mais elle sait aussi que la psychiatrie ne s'est appuyée que trop longtemps sur des suppositions éclairées. «Nous ne voulons pas faire de déductions discutables sur ce que le patient aurait pu dire ou vouloir dire s’il existe un moyen de le découvrir objectivement», dit-elle. «Nous voulons les enregistrer, appuyer sur un bouton et obtenir des chiffres. À la fin du rendez-vous, nous avons les résultats. C’est l’idéal. C'est ce sur quoi nous travaillons. »

Pour Rezaii, il est naturel que les psychiatres modernes veuillent utiliser des smartphones et d’autres technologies disponibles. Les discussions sur l'éthique et la confidentialité sont importantes, dit-elle, mais il en va de même pour le fait que les entreprises de technologie récoltent déjà des informations sur notre comportement et les utilisent – sans notre consentement – à des fins moins nobles, comme décider qui paiera le plus pour des trajets en taxi identiques ou attendez plus longtemps pour être ramassé.

«Nous vivons dans un monde numérique. Les choses peuvent toujours être maltraitées », dit-elle. «Une fois qu'un algorithme est disponible, les gens peuvent le prendre et l'utiliser sur d'autres. Il n’ya aucun moyen d’empêcher cela. Au moins dans le monde médical, nous demandons le consentement.

LAISSER UN COMMENTAIRE

Rédigez votre commentaire !
Entrez votre nom ici