Les promesses de l’intelligence artificielle pour diagnostiquer de manière experte la maladie à l’aide d’images et de scans médicaux Cependant, un examen attentif des données utilisées pour former des algorithmes de diagnostic des affections oculaires suggère que ces nouveaux outils puissants peuvent perpétuer les inégalités de santé.

Une équipe de chercheurs au Royaume-Uni a analysé 94 ensembles de données – avec plus de 500 000 images – couramment utilisés pour entraîner des algorithmes d’IA à détecter les maladies oculaires. Ils ont constaté que presque toutes les données provenaient de patients d’Amérique du Nord, d’Europe et de Chine. Seuls quatre ensembles de données provenaient d’Asie du Sud, deux d’Amérique du Sud et un d’Afrique; aucun n’est venu d’Océanie.

La disparité dans la source de ces images oculaires signifie que les algorithmes d’examen de la vue par IA sont moins sûrs de bien fonctionner pour les groupes raciaux des pays sous-représentés, explique Xiaoxuan Liu, ophtalmologiste et chercheur à l’Université de Birmingham qui a participé à l’étude. «Même s’il y a des changements très subtils dans la maladie dans certaines populations, l’IA peut échouer assez gravement», dit-elle.

L’Association américaine des ophtalmologistes a montré son enthousiasme pour les outils d’IA, qui, selon elle, promettent d’améliorer les normes de soins. Mais Liu dit que les médecins peuvent être réticents à utiliser de tels outils pour les minorités raciales s’ils apprennent qu’ils ont été construits en étudiant des patients à prédominance blanche. Elle note que les algorithmes peuvent échouer en raison de différences trop subtiles pour que les médecins eux-mêmes puissent les remarquer.

Les chercheurs ont également découvert d’autres problèmes dans les données. De nombreux ensembles de données n’incluaient pas de données démographiques clés, telles que l’âge, le sexe et la race, ce qui rend difficile de déterminer si elles sont biaisées d’autres manières. Les ensembles de données avaient également tendance à avoir été créés autour d’une poignée de maladies: le glaucome, la rétinopathie diabétique et la dégénérescence maculaire liée à l’âge. Quarante-six ensembles de données qui avaient été utilisés pour entraîner des algorithmes n’ont pas rendu les données disponibles.

La Food and Drug Administration des États-Unis a approuvé plusieurs produits d’imagerie par IA ces dernières années, dont deux outils d’IA pour l’ophtalmologie. Liu dit que les entreprises derrière ces algorithmes ne fournissent généralement pas de détails sur la façon dont ils ont été formés. Elle et ses co-auteurs demandent aux régulateurs de prendre en compte la diversité des données de formation lors de l’examen des outils d’IA.

Le biais trouvé dans les ensembles de données d’images oculaires signifie que les algorithmes formés sur ces données sont moins susceptibles de fonctionner correctement en Afrique, en Amérique latine ou en Asie du Sud-Est. Cela saperait l’un des grands avantages supposés du diagnostic de l’IA: leur potentiel à apporter une expertise médicale automatisée dans les régions les plus pauvres où elle fait défaut.

«Vous obtenez une innovation qui ne profite qu’à certaines parties de certains groupes de personnes», dit Liu. « C’est comme avoir un Google Maps qui n’entre pas dans certains codes postaux. »

Le manque de diversité des images oculaires, que les chercheurs appellent la «pauvreté des données», affecte probablement de nombreux algorithmes d’IA médicale.

Amit Kaushal, professeur adjoint de médecine à l’Université de Stanford, faisait partie d’une équipe qui a analysé 74 études impliquant des utilisations médicales de l’IA, dont 56 ont utilisé des données de patients américains. Ils ont constaté que la plupart des données américaines provenaient de trois États: la Californie (22), New York (15) et le Massachusetts (14).

image de l'article

Le guide WIRED de l’intelligence artificielle

Les algorithmes supersmart ne prendront pas tous les emplois, mais ils apprennent plus vite que jamais, allant des diagnostics médicaux à la diffusion d’annonces.

«Lorsque des sous-groupes de la population sont systématiquement exclus des données d’entraînement à l’IA, les algorithmes d’IA auront tendance à être moins performants pour ces groupes exclus», explique Kaushal. «Les problèmes auxquels sont confrontées les populations sous-représentées peuvent même ne pas être étudiés par les chercheurs en IA en raison du manque de données disponibles.»

Il dit que la solution est de sensibiliser les chercheurs et les médecins en IA au problème, afin qu’ils recherchent des ensembles de données plus diversifiés. «Nous devons créer une infrastructure technique qui permette d’accéder à diverses données pour la recherche sur l’IA, et un environnement réglementaire qui soutient et protège l’utilisation de ces données par la recherche», dit-il.

Vikash Gupta, chercheur à la Mayo Clinic en Floride travaillant sur l’utilisation de l’IA en radiologie, affirme que le simple fait d’ajouter des données plus diversifiées pourrait éliminer les biais. «Il est difficile de dire comment résoudre ce problème pour le moment», dit-il.

LAISSER UN COMMENTAIRE

Rédigez votre commentaire !
Entrez votre nom ici