Jess Whittlestone du Leverhulme Center for the Future of Intelligence de l'Université de Cambridge et ses collègues ont publié un article dans Nature Machine Intelligence cette semaine, faisant valoir que si l'intelligence artificielle allait aider en cas de crise, nous avons besoin d'un nouveau moyen plus rapide de faire l'éthique de l'IA, qu'ils appellent l'éthique d'urgence.

Jess Whittlestone

JESS WHITTLESTONE

Pour Whittlestone, cela signifie anticiper les problèmes avant qu'ils ne surviennent, trouver de meilleures façons d'intégrer la sécurité et la fiabilité dans les systèmes d'IA, et mettre l'accent sur l'expertise technique à tous les niveaux du développement et de l'utilisation de la technologie. Au cœur de ces recommandations se trouve l'idée que l'éthique doit devenir simplement une partie de la façon dont l'IA est fabriquée et utilisée, plutôt qu'un complément ou une réflexion après coup.

En fin de compte, l'IA sera plus rapide à déployer si nécessaire si elle est faite avec une éthique intégrée, soutient-elle. Je lui ai demandé de me parler de ce que cela signifie.

Cette interview a été modifiée pour plus de clarté et de longueur.

Pourquoi avons-nous besoin d'un nouveau type d'éthique pour l'IA?

Avec cette pandémie, nous sommes soudainement dans une situation où les gens se demandent vraiment si l'IA pourrait être utile, si elle pourrait sauver des vies. Mais la crise a clairement montré que nous n'avons pas de procédures éthiques suffisamment solides pour déployer l'intelligence artificielle en toute sécurité, et certainement pas de procédures pouvant être mises en œuvre rapidement.

Quel est le problème avec l'éthique que nous avons?

J'ai passé les deux dernières années à passer en revue les initiatives d'éthique de l'IA, à examiner leurs limites et à demander de quoi d'autre nous avons besoin. Comparée à quelque chose comme l'éthique biomédicale, l'éthique que nous avons pour l'IA n'est pas très pratique. Il se concentre trop sur des principes de haut niveau. Nous pouvons tous convenir que l'IA doit être utilisée pour de bon. Mais qu'est-ce que cela signifie réellement? Et que se passe-t-il lorsque des principes de haut niveau entrent en conflit?

Par exemple, l'IA a le potentiel de sauver des vies, mais cela pourrait se faire au détriment des libertés civiles comme la vie privée. Comment pouvons-nous traiter ces compromis de manière acceptable pour de nombreuses personnes différentes? Nous n'avons pas compris comment gérer les inévitables désaccords.

L'éthique de l'IA tend également à répondre aux problèmes existants plutôt qu'à en anticiper de nouveaux. La plupart des problèmes dont les gens discutent aujourd'hui au sujet des biais algorithmiques ne se sont posés que lorsque des problèmes importants ont mal tourné, comme les décisions concernant la police et la libération conditionnelle.

Mais l'éthique doit être proactive et se préparer à ce qui pourrait mal tourner, pas à ce qui a déjà mal tourné. De toute évidence, nous ne pouvons pas prédire l’avenir. Mais à mesure que ces systèmes deviennent plus puissants et s'utilisent dans des domaines à enjeux plus élevés, les risques augmentent.

Quelles opportunités avons-nous manquées en n'ayant pas ces procédures en place?

Il est facile de sur-taper ce qui est possible, et l'IA n'allait probablement jamais jouer un rôle énorme dans cette crise. Les systèmes d'apprentissage automatique ne sont pas suffisamment matures.

Mais il existe une poignée de cas dans lesquels l'IA est testée pour un diagnostic médical ou pour l'allocation de ressources entre les hôpitaux. Nous aurions pu utiliser ces types de systèmes plus largement, réduisant une partie de la charge sur les soins de santé, s'ils avaient été conçus dès le départ en tenant compte de l'éthique.

Avec l'allocation des ressources en particulier, vous décidez quels patients sont prioritaires. Vous avez besoin d'un cadre éthique intégré avant d'utiliser l'IA pour vous aider dans ce type de décisions.

L'éthique d'urgence est-elle simplement un appel à améliorer l'éthique de l'IA existante?

Cela en fait partie. Le fait que nous ne disposions pas de processus solides et pratiques pour l'éthique de l'IA rend les choses plus difficiles dans un scénario de crise. Mais dans des moments comme celui-ci, vous avez également un plus grand besoin de transparence. Les gens parlent beaucoup du manque de transparence avec les systèmes d'apprentissage automatique comme des boîtes noires. Mais il existe un autre type de transparence concernant l'utilisation des systèmes.

Ceci est particulièrement important dans une crise, lorsque les gouvernements et les organisations prennent des décisions urgentes qui impliquent des compromis. À qui la santé accordez-vous la priorité? Comment sauvez-vous des vies sans détruire l'économie? Si une IA est utilisée dans la prise de décision publique, la transparence est plus importante que jamais.

Qu'est-ce qui doit changer?

Nous devons penser l'éthique différemment. Ce ne devrait pas être quelque chose qui se passe sur le côté ou après, quelque chose qui vous ralentit. Cela devrait simplement faire partie de la façon dont nous construisons ces systèmes en premier lieu: l'éthique par conception.

J'ai parfois l'impression que «éthique» n'est pas le bon mot. Ce que nous disons, c'est que les chercheurs et ingénieurs en apprentissage automatique doivent être formés pour réfléchir aux implications de ce qu'ils construisent, qu'ils fassent de la recherche fondamentale comme la conception d'un nouvel algorithme d'apprentissage par renforcement ou quelque chose de plus pratique comme le développement. une application de soins de santé. Si leur travail se retrouve dans des produits et services du monde réel, à quoi cela pourrait-il ressembler? Quels types de problèmes pourrait-elle soulever?

Une partie de cela a déjà commencé. Nous travaillons avec des chercheurs en IA en début de carrière, pour leur parler de la manière d'intégrer cette façon de penser à leur travail. C’est un peu une expérience pour voir ce qui se passe. Mais même NeurIPS [une conférence de premier plan sur l'IA] demande maintenant aux chercheurs d'inclure une déclaration à la fin de leurs articles décrivant les impacts sociétaux potentiels de leur travail.

Vous avez dit que nous avons besoin de personnes possédant une expertise technique à tous les niveaux de conception et d'utilisation de l'IA. Pourquoi donc?

Je ne dis pas que l'expertise technique est la clé de voûte de l'éthique, mais c'est une perspective qui doit être représentée. Et je ne veux pas sonner comme si je disais que toute la responsabilité incombe aux chercheurs, car de nombreuses décisions importantes sur la façon dont l'IA est utilisée sont prises plus en amont, par l'industrie ou par les gouvernements.

Mais je crains que les personnes qui prennent ces décisions ne comprennent pas toujours parfaitement comment cela pourrait mal tourner. Vous devez donc impliquer des personnes possédant une expertise technique. Nos intuitions sur ce que l'IA peut et ne peut pas faire ne sont pas très fiables.

À tous les niveaux de développement de l'IA, vous avez besoin de personnes qui comprennent vraiment les détails de l'apprentissage automatique pour travailler avec des personnes qui comprennent vraiment l'éthique. La collaboration interdisciplinaire est cependant difficile. Les personnes ayant différents domaines d'expertise parlent souvent des choses de différentes manières. Ce qu'un chercheur en apprentissage automatique entend par confidentialité peut être très différent de ce qu'un avocat entend par confidentialité, et vous pouvez vous retrouver avec des gens qui se parlent. C’est pourquoi il est important que ces différents groupes s’habituent à travailler ensemble.

Vous faites pression pour une refonte institutionnelle et culturelle assez importante. Qu'est-ce qui vous fait penser que les gens voudront faire cela plutôt que de créer des comités d'éthique ou des comités de surveillance – ce qui me fait toujours un peu soupirer parce qu'ils ont tendance à être édentés?

Ouais, je soupire aussi. Mais je pense que cette crise oblige les gens à voir l'importance des solutions pratiques. Peut-être qu'au lieu de dire: «Oh, ayons ce conseil de surveillance et ce conseil de surveillance», les gens diront: «Nous devons faire cela, et nous devons le faire correctement.»

LAISSER UN COMMENTAIRE

Rédigez votre commentaire !
Entrez votre nom ici