Les 20 législateurs sourient sur leurs photos officielles. Les meilleures étiquettes suggérées par Google ont noté un sourire pour un seul des hommes, mais pour sept des femmes. Le service de vision IA de l’entreprise a qualifié les 10 hommes d ‘«homme d’affaires», souvent aussi de «fonctionnaire» ou de «col blanc». Seules cinq des femmes sénateurs ont reçu un ou plusieurs de ces mandats. Les femmes ont également reçu des étiquettes liées à l’apparence, telles que «peau», «coiffure» et «cou», qui n’étaient pas appliquées aux hommes.

Les services d’Amazon et de Microsoft semblent montrer des préjugés moins évidents, bien qu’Amazon ait déclaré être sûr à plus de 99% que deux des 10 femmes sénateurs étaient soit une «fille» soit un «enfant». Cela ne suggérait pas qu’aucun des 10 hommes était mineur. Le service de Microsoft a identifié le sexe de tous les hommes, mais seulement de huit des femmes, appelant l’un un homme et ne marquant pas un sexe pour un autre.

Google a désactivé la détection du sexe de son service de vision IA plus tôt cette année, affirmant que le sexe ne peut pas être déduit de l’apparence d’une personne. Tracy Frey, directrice générale de l’IA responsable de la division cloud de Google, affirme que la société continue de travailler sur la réduction des biais et accueille les contributions extérieures. «Nous nous efforçons toujours d’être meilleurs et de continuer à collaborer avec des parties prenantes externes, comme des chercheurs universitaires, pour faire avancer nos travaux dans cet espace», dit-elle. Amazon et Microsoft ont refusé de commenter; les services des deux entreprises reconnaissent le genre uniquement comme binaire.

L’étude américano-européenne a été inspirée en partie par ce qui s’est passé lorsque les chercheurs ont fourni au service de vision de Google une image frappante et primée du Texas montrant un enfant en bas âge hondurien en larmes alors qu’un agent de la patrouille frontalière américaine détenait sa mère. L’IA de Google a suggéré des libellés comprenant « amusant », avec un score de 77%, supérieur au score de 52% attribué au libellé « enfant ». WIRED a reçu la même suggestion après avoir téléchargé l’image sur le service de Google mercredi.

Schwemmer et ses collègues ont commencé à jouer avec le service de Google dans l’espoir qu’il pourrait les aider à mesurer les tendances dans la façon dont les gens utilisent les images pour parler de politique en ligne. Ce qu’il a par la suite aidé à découvrir sur les préjugés sexistes dans les services d’image l’a convaincu que la technologie n’est pas prête à être utilisée par les chercheurs de cette façon et que les entreprises utilisant de tels services pourraient en subir des conséquences désagréables. «Vous pourriez avoir une image complètement fausse de la réalité», dit-il. Une entreprise qui utilisait un service d’IA biaisé pour organiser une grande collection de photos pourrait par inadvertance finir par obscurcir les femmes d’affaires, les indexant à la place par leurs sourires.

Lorsque cette image a remporté la photo de la presse mondiale de l’année en 2019, un juge a fait remarquer qu’elle montrait «une violence psychologique». Les algorithmes d’image de Google ont détecté «amusant».

Personnel WIRED via Google

LAISSER UN COMMENTAIRE

Rédigez votre commentaire !
Entrez votre nom ici