Peut-être avez-vous entendu parler de la colère entourant le recadrage automatique des images sur Twitter. Lorsque les utilisateurs soumettent des images trop hautes ou trop larges pour la mise en page, Twitter les recadre automatiquement en un carré. Au lieu de simplement choisir, disons, le plus grand carré le plus proche du centre de l’image, ils utilisent un «algorithme», probablement un réseau de neurones, formé pour trouver les visages des gens et s’assurer qu’ils sont rognés.

Le problème est que lorsqu’une image trop haute ou trop large comprend deux personnes ou plus et qu’elles ont une peau de couleur différente, le recadrage choisit le visage le plus clair. C’est vraiment offensant, et quelque chose ne va clairement pas, mais quoi?

Un réseau de neurones n’est en réalité qu’une équation mathématique, les variables d’entrée étant dans ces cas des convolutions sur les pixels de l’image, et leur formation consiste essentiellement à choisir les valeurs de tous les coefficients. Pour ce faire, appliquez des entrées, voyez à quel point les sorties sont fausses et mettez à jour les coefficients pour rendre la réponse un peu plus juste. Faites-le un bazillion de fois, avec un modèle et un ensemble de données suffisamment grands, et vous pourrez faire en sorte qu’une machine reconnaisse différentes races de chats.

Qu’est-ce qui n’a pas fonctionné sur Twitter? À l’heure actuelle, c’est de la spéculation, mais mon argent dit que cela dépend de l’ensemble de données d’entraînement ou de l’étape de mise à jour des coefficients. Le problème de l’inclusion de personnes de toutes races dans l’ensemble de données d’entraînement est si flagrant que nous espérons que ce n’est pas le problème; bien qu’obtenir un ensemble de données représentatif soit dur, il est connu pour être difficile, et ils devraient être en plus de cela.

Ce qui signifie que le problème pourrait être l’ajustement des coefficients, et c’est là que les mathématiques et la culture se heurtent. Imaginez que votre algorithme ait simplement mal classé un chat comme «avion» ou comme «lion». Vous devez modifier les coefficients pour qu’ils éloignent un peu la réponse de ce résultat, et davantage vers «chat». Les déplacez-vous également de «avion» et de «lion» ou «avion» est-il en quelque sorte plus faux? Pour capturer cette notion de différentes erreurs, vous utilisez une fonction de perte qui peut encapsuler numériquement exactement ce que vous voulez que le réseau apprenne, puis vous faites des pas plus ou moins grands dans la bonne direction en fonction de la gravité du résultat.

Laissez cela pénétrer une seconde. Vous avez besoin d’une équation mathématique qui résume ce que vous voulez que le réseau apprenne. (Mais non Comment vous voulez qu’il l’apprenne. C’est la qualité révolutionnaire des réseaux de neurones appliqués.)

Imaginez maintenant, comme cela est arrivé à Google, que votre algorithme s’adapte «gorille» à l’image d’une personne noire. C’est faux, mais il est catégoriquement différent de simplement adapter «avion» à la même personne. Comment écrivez-vous la fonction de perte qui incorpore des sanctions pour les résultats racistes? Idéalement, vous voudriez qu’elles ne se produisent jamais, vous pouvez donc imaginer essayer d’identifier toutes les insultes possibles et attribuer à ces résultats une perte infiniment grande. Ce qui est essentiellement ce que Google a fait – leur «solution de contournement» était d’arrêter complètement de classer le «gorille» parce que la perte encourue en classant à tort une personne comme un gorille était si grande.

C’est un problème fondamental avec les réseaux de neurones – ils ne sont aussi bons que les données et la fonction de perte. Ces jours-ci, les données sont devenues moins un problème, mais obtenir la bonne perte est un jeu à plusieurs niveaux, comme le démontrent ces épaves de train du réseau neuronal. Et ce n’est pas aussi simple que d’écrire une équation qui n’est pas «raciste», quoi que cela puisse signifier. On demande à la fonction de perte d’encapsuler les sensibilités humaines, de les contourner et de les quantifier, et éventuellement de peser le léger risque de faire une erreur de classification particulièrement offensante par rapport à ne pas reconnaître du tout certains animaux.

Je ne suis pas sûr que ce problème puisse être résolu, même avec des ensembles de données extrêmement volumineux. (Il existe des preuves mathématiques qu’avec des jeux de données infiniment grands, le modèle classera tout correctement, vous n’avez donc pas à vous inquiéter. Mais à quelle distance sommes-nous de l’infini? Les preuves asymptotiques sont-elles pertinentes?)

Quoi qu’il en soit, ce problème est plus important que les algorithmes, ou même leurs auteurs, étant «racistes». Cela peut être un problème fondamental de l’apprentissage automatique, et nous allons certainement voir de nouvelles permutations du fiasco de Twitter à l’avenir, car la classification des machines est de plus en plus appelée à respecter la dignité humaine.

LAISSER UN COMMENTAIRE

Rédigez votre commentaire !
Entrez votre nom ici