demande de soutien:

Je suis troublé par le fait que les forces de l’ordre utilisent de plus en plus des robots pour neutraliser les menaces, la surveillance et les prises d’otages. Peut-être que je viens de voir RoboCop trop souvent, mais je me méfie des machines qui prennent des décisions cruciales, de vie ou de mort, surtout compte tenu de la fréquence à laquelle de véritables agents humains abusent de leur autorité. Ai-je une obligation morale quelconque d’obéir à un robot policier?

-SUSPECT

Cher suspect,

Hollywood n’a pas été particulièrement optimiste à propos des robots en position d’autorité. RoboCop n’est qu’un exemple du canon de science-fiction plus large qui a brûlé dans nos esprits les conséquences tragiques de l’abandon de tâches critiques à des machines inflexibles – des robots dont les principales directives sont honorées d’un littéralisme qui peut devenir mortel, qui peut faire exploser une personne à mort mais sont confondus par une série d’escaliers. Le message de ces films est clair: les automates rigides sont incapables des solutions improvisées et des nuances morales si souvent requises dans les moments de crise.

C’est peut-être ce stéréotype qui a conduit Boston Dynamics, dont certains robots sont intégrés dans les services de police, à publier en décembre dernier une vidéo de ses modèles dansant sur le hit de Contours des années 1950, «Do You Love Me». Peut-être que vous l’avez vu? Les robots comprenaient Atlas, un androïde qui ressemble à un soldat de la tempête déconstruit, et Spot, qui a servi d’inspiration aux dogbots tueurs dans l’épisode «Metalhead» de Miroir noir. Aucune des deux machines ne semble avoir été conçue pour apaiser les craintes d’une prise de contrôle de robot, alors quel meilleur moyen de les faire aimer au public que de montrer leur agilité? Et quel meilleur test de cette agilité qu’une compétence considérée si uniquement humaine que nous avons inventé un mouvement conçu pour se moquer de l’incapacité d’un automate à le faire (le Robot)? En regardant les machines se mélanger, tourner et tourner, il est difficile d’éviter de les voir comme des créatures vibrantes et incarnées, capables des mêmes flexibilités et sensibilités que nous.

Peu importe que les articulations de Spot puissent vous couper le doigt ou que des robots de police ont déjà été utilisés pour exercer une force mortelle. Une façon de répondre à votre question, Suspect, sans faire appel à la philosophie morale, pourrait être en termes de conséquences pragmatiques. Si vous avez l’intention, comme la plupart d’entre nous, de rester en vie et en bonne santé, alors oui, vous devez absolument obéir à un robot policier.

Mais je sens que votre question n’est pas simplement pratique. Et je conviens qu’il est important de considérer les compromis impliqués dans le transfert des tâches de police aux machines. La vidéo de Boston Dynamics, d’ailleurs, a été publiée à la fin de 2020 comme un moyen de «célébrer le début de ce que nous espérons être une année plus heureuse». Une semaine plus tard, les insurgés ont pris d’assaut le Capitole, et les images de policiers montrant peu de résistance à la foule se sont multipliées – des photos qui ont été juxtaposées de manière frappante, sur les réseaux sociaux, contre les réponses les plus sévères aux manifestations de Black Lives Matter l’été dernier.

À un moment où de nombreux services de police sont confrontés à une crise d’autorité due à la violence raciale, l’argument le plus convaincant en faveur de la robotique policière est que les machines n’ont aucune capacité intrinsèque de préjugés. Pour un robot, une personne est une personne, quels que soient la couleur de la peau, le sexe ou la cause. Comme la Maison Blanche l’a noté dans un rapport de 2016 sur les algorithmes et les droits civils, les nouvelles technologies ont le potentiel «d’aider les forces de l’ordre à prendre des décisions fondées sur des facteurs et des variables qui sont en corrélation empirique avec le risque, plutôt que sur des instincts humains et des préjugés défectueux.

Bien sûr, si la technologie policière actuelle est une preuve, les choses ne sont pas aussi simples. Les algorithmes de police prédictive, qui sont utilisés pour identifier les personnes et les quartiers à haut risque, sont très sujets aux biais, ce que la robotique Ayanna Howards a appelé le «péché originel de l’IA». Parce que ces systèmes reposent sur des données historiques (affaires judiciaires antérieures, arrestations antérieures), ils finissent par désigner les mêmes communautés qui ont été injustement ciblées en premier lieu et renforcent le racisme structurel. Les prédictions automatisées peuvent devenir auto-réalisatrices, enfermant certains quadrants dans un schéma de surpolissage. (Les agents qui arrivent à un endroit qui a été signalé comme étant mûr pour le crime sont prêts à en découvrir un.) En d’autres termes, ces outils ne neutralisent pas tant les préjugés que les officialisent, transformant les inégalités sociales existantes en systèmes qui se perpétuent inconsciemment et mécaniquement. eux. Comme le note le professeur d’éthique numérique Kevin Macnish, les valeurs des fabricants d’algorithmes «sont figées dans le code, institutionnalisant efficacement ces valeurs».