Les réseaux sociaux et les services en ligne font désormais partie intégrante de la vie quotidienne au point que notre monde entier est façonné par des algorithmes. Arcanes dans leur fonctionnement, ils sont responsables du contenu que nous voyons et des publicités que nous montrons. Tout aussi important, ils décident également de ce qui est caché à la vue.

Important: une grande partie de cet article traite des performances d’un algorithme de site Web en direct. Certains des liens de cet article peuvent ne pas fonctionner comme indiqué s’ils sont consultés à une date ultérieure.

Le problème initial de Zoom qui a mis en lumière les problèmes de Twitter.

Récemment, [Colin Madland] a publié des captures d’écran d’une réunion Zoom sur Twitter, soulignant comment l’algorithme de détection d’arrière-plan de Zoom avait mal effacé la tête d’un collègue à la peau plus foncée. Ce faisant, [Colin] a remarqué un effet étrange – bien que la capture d’écran qu’il a soumise montre leurs deux visages, Twitter recadrerait toujours l’image pour ne montrer que son visage à la peau claire, quelle que soit l’orientation de l’image. La communauté Twitter s’est précipitée pour explorer le problème et les retombées ont été rapides.

Intentions! = Résultats

Un exemple de paire d’images sources publiées sur Twitter, avec deux visages dans des orientations alternatives.

Les utilisateurs de Twitter ont commencé à réitérer le problème, testant encore et encore avec différentes images. Des modèles de photos ont été utilisés, ainsi que des lecteurs de nouvelles et des images de Lenny et Carl des Simpsons.Dans la majorité des cas, l’algorithme de Twitter a recadré les images pour se concentrer sur le visage à la peau plus claire d’une photo. Dans l’exemple peut-être le plus ridicule, l’algorithme rogné sur un comédien noir prétendre être blanc sur une image normale du même comédien.

Le résultat – l’algorithme de Twitter rogne sur le visage blanc, quelle que soit l’orientation.

De nombreuses expériences ont été entreprises, contrôlant des facteurs tels que des arrière-plans différents, des vêtements ou la netteté de l’image. Quoi qu’il en soit, l’effet a persisté, ce qui a conduit Twitter à s’exprimer officiellement sur la question. Un porte-parole de la société a déclaré: «Notre équipe a fait des tests de partialité avant d’envoyer le modèle et n’a pas trouvé de preuve de partialité raciale ou sexiste dans nos tests. Mais il ressort clairement de ces exemples que nous avons plus d’analyses à faire. Nous continuerons à partager ce que nous apprenons, les actions que nous entreprenons, et nous ouvrirons notre analyse en source ouverte afin que d’autres puissent les réviser et les reproduire. »

Il y a peu de preuves pour suggérer qu’un tel biais a été délibérément codé dans l’algorithme de recadrage; certainement, Twitter ne mentionne pas publiquement une telle intention dans leur article de blog sur la technologie en 2018. Indépendamment de ce fait, le problème existe, avec des conséquences négatives pour les personnes touchées. Bien qu’un simple recadrage d’image puisse ne pas sembler grand-chose, il a pour effet de réduire la visibilité des personnes concernées et de les exclure des espaces en ligne. Le problème a également été souligné auparavant. Dans cette série d’images d’un groupe de commentateurs de l’IA de janvier 2019, le recadrage d’images Twitter s’est concentré sur les visages des hommes et les poitrines des femmes. Le double standard est particulièrement préjudiciable dans les contextes professionnels, où les femmes et les personnes de couleur peuvent se retrouver apparemment objectivées, ou totalement découpées, grâce aux machinations d’un algorithme mystérieux.

Le problème est resté constant dans de nombreux tests communautaires, impliquant lecteurs de nouvelles, les dessins animés, et même des labradors dorés et noirs.

Anciens employés, comme [Ferenc Huszár], ont également parlé de la question – en particulier sur le processus de test du produit avant son lancement. Cela suggère que des tests ont été effectués pour explorer cette question, en ce qui concerne les préjugés sur la race et le sexe. De même, [Zehan Wang], actuellement responsable de l’ingénierie pour Twitter, a déclaré que ces problèmes ont été étudiés dès 2017 sans aucun biais majeur.

C’est un problème difficile à analyser, car l’algorithme est, à toutes fins utiles, une boîte noire. Les utilisateurs de Twitter sont évidemment incapables d’observer le code source qui régit le comportement de l’algorithme, et donc les tests sur le site en direct sont le seul moyen viable pour quiconque en dehors de l’entreprise de rechercher le problème. Une grande partie de cela a été fait ad hoc, le biais de sélection jouant probablement un rôle. Ceux qui recherchent un problème seront sûrs d’en trouver un, et plus susceptibles d’ignorer les preuves qui contredisent cette hypothèse.

Des efforts sont faits pour étudier la question de manière plus scientifique, utiliser de nombreux exemples d’images prises en studio pour tenter de trouver un biais. Cependant, même ces efforts ont fait l’objet de critiques, à savoir l’utilisation d’un ensemble d’images source conçu pour l’apprentissage automatique et tourné dans un éclairage de studio parfait sur un fond blanc. n’est pas représentatif de manière réaliste des images réelles que les utilisateurs publient sur Twitter.

Certains utilisateurs ont tenté d’en attribuer la cause à des problèmes de contraste, de saturation ou à des raisons similaires. Que ce soit ou non une cause potentielle n’est pas concluant. Quoi qu’il en soit, si votre algorithme ne reconnaît les personnes de couleur que si elles sont retouchées numériquement, vous avez un problème.

L’algorithme de Twitter n’est pas la première technologie à être accusée de préjugé racial; des distributeurs de savon aux soins de santé, ces problèmes ont déjà été observés. Fondamentalement, cependant, si Twitter veut résoudre le problème à la satisfaction de tous, il faut encore plus de travail. Une batterie beaucoup plus large de tests, comportant un large échantillon d’images du monde réel, doit être entreprise, et la méthodologie et les résultats partagés avec le public. Rien de moins que cela, et il est peu probable que Twitter soit en mesure de convaincre la base d’utilisateurs plus large que son logiciel ne fait pas défaut aux minorités. Étant donné qu’il y a des progrès à faire dans la compréhension des systèmes d’apprentissage automatique, nous nous attendons à ce que les recherches se poursuivent à un rythme rapide pour résoudre le problème.

LAISSER UN COMMENTAIRE

Rédigez votre commentaire !
Entrez votre nom ici