Infirmière Dina Sarro ne savait pas grand-chose sur l’intelligence artificielle lorsque l’hôpital universitaire de Duke a installé un logiciel d’apprentissage automatique pour déclencher une alarme lorsqu’une personne risquait de développer une septicémie, une complication de l’infection qui est la principale cause de mortalité dans les hôpitaux américains. Le logiciel, appelé Sepsis Watch, a transmis les alertes d’un algorithme que les chercheurs de Duke avaient réglé avec 32 millions de points de données d’anciens patients à l’équipe d’infirmières à réponse rapide de l’hôpital, codirigée par Sarro.

Mais lorsque les infirmières transmettaient ces avertissements aux médecins, elles rencontraient parfois de l’indifférence ou même des soupçons. Lorsque la documentation a demandé pourquoi l’IA pensait qu’un patient avait besoin d’une attention particulière, Sarro s’est retrouvée dans une situation difficile. «Je n’aurais pas de bonne réponse car elle est basée sur un algorithme», dit-elle.

Sepsis Watch est toujours utilisé chez Duke – en grande partie grâce à Sarro et ses collègues infirmières qui se sont réinventées en diplomates de l’IA habiles à aplanir les relations homme-machine. Ils ont développé de nouveaux flux de travail qui ont contribué à rendre les cris de l’algorithme plus acceptables pour les gens.

Un nouveau rapport du think tank Data & Society appelle cela un exemple du «travail de réparation» qui doit souvent accompagner les avancées technologiques disruptives. La coauteure Madeleine Clare Elish dit que les contributions vitales de personnes en première ligne comme Sarro sont souvent négligées. «Ces choses échoueront lorsque les seules ressources seront consacrées à la technologie elle-même», dit-elle.

image de l'article

Le guide WIRED de l’intelligence artificielle

Les algorithmes supersmart ne prendront pas tous les emplois, mais ils apprennent plus vite que jamais, allant des diagnostics médicaux à la diffusion d’annonces.

La médiation homme-machine requise chez Duke illustre le défi de traduire une récente poussée de la recherche en santé sur l’IA en de meilleurs soins aux patients. De nombreuses études ont créé des algorithmes qui fonctionnent aussi bien ou mieux que les médecins lorsqu’ils sont testés sur des dossiers médicaux, tels que des rayons X ou des photos de lésions cutanées. Mais comment utiliser utilement de tels algorithmes dans les hôpitaux et les cliniques n’est pas bien compris. Les algorithmes d’apprentissage automatique sont notoirement inflexibles et opaques même pour leurs créateurs. De bons résultats sur un ensemble de données de recherche soigneusement organisé ne garantissent pas le succès dans le mouvement chaotique d’un hôpital.

Une étude récente sur les logiciels de classification des grains de beauté a révélé que ses recommandations persuadaient parfois les médecins expérimentés de passer d’un diagnostic correct à un mauvais diagnostic. Lorsque Google a mis un système capable de détecter les maladies oculaires chez les diabétiques avec une précision de 90% dans les cliniques en Thaïlande, le système a rejeté plus de 20% des images de patients en raison de problèmes tels que l’éclairage variable. Elish a récemment rejoint l’entreprise et dit qu’elle espère continuer à faire des recherches sur l’IA dans les soins de santé.

Le projet de Duke sur la septicémie a commencé en 2016, au début du récent boom des soins de santé de l’IA. Il était censé améliorer un système plus simple d’alertes contextuelles de sepsie, que les travailleurs submergés par les notifications avaient appris à ignorer et à ignorer.

Les chercheurs du Duke Institute for Health Innovation ont estimé que des alertes plus ciblées, envoyées directement aux infirmières d’intervention rapide de l’hôpital, qui à leur tour informaient les médecins, pourraient mieux s’en tirer. Ils ont utilisé l’apprentissage en profondeur, la technique d’IA privilégiée par l’industrie de la technologie, pour former un algorithme sur 50000 dossiers de patients et ont construit un système qui analyse les dossiers des patients en temps réel.

Sepsis Watch a fait un gros plan anthropologique parce que les développeurs de Duke savaient qu’il y aurait des inconnues dans le tumulte de l’hôpital et ont demandé de l’aide à Elish. Elle a passé des jours à observer et à interroger des infirmières et des médecins du service des urgences et a découvert que l’algorithme avait une vie sociale compliquée.

Le système émettait des alertes sur des iPad surveillés par les infirmières, signalant les patients jugés à risque modéré ou élevé de sepsie, ou ayant déjà développé la condition mortelle. Les infirmières étaient censées appeler immédiatement un médecin du service des urgences pour les patients signalés comme à haut risque. Mais lorsque les infirmières ont suivi ce protocole, elles ont rencontré des problèmes.

Certains défis provenaient de la perturbation du flux de travail habituel d’un hôpital très fréquenté – de nombreux médecins n’ont pas l’habitude de suivre les instructions des infirmières. D’autres étaient spécifiques à l’IA, comme les fois où Sarro était confronté à des demandes pour savoir pourquoi l’algorithme avait déclenché l’alarme. L’équipe derrière le logiciel n’avait pas intégré de fonction d’explication, car comme pour de nombreux algorithmes d’apprentissage automatique, il n’est pas possible de déterminer pourquoi elle a fait un appel particulier.

LAISSER UN COMMENTAIRE

Rédigez votre commentaire !
Entrez votre nom ici