Les sections de commentaires ont longtemps agi comme les poubelles raides des sites d’information, recueillant la pire et la plus mince de la pensée humaine. Les réactions réfléchies se mêlent aux abats hors sujet, aux attaques personnelles et aux suggestions alléchantes pour «apprendre à gagner plus de 7 000 $ par mois en travaillant à domicile en ligne!» (Ainsi va le vieil adage: ne jamais lire les commentaires.) Les choses ont tellement mal tourné au cours de la dernière décennie que de nombreux sites Web ont mis le kibosh sur les commentaires, échangeant l’espoir d’un débat animé et interactif contre la promesse de paix et de tranquillité.

Mais alors que certaines personnes se sont enfuies en criant, d’autres ont sauté avec pour mission d’améliorer la section des commentaires. Aujourd’hui, des dizaines de rédactions utilisent des plateformes de commentaires comme Coral et OpenWeb qui visent à tenir le discours problématique à distance grâce à une combinaison de chaperons humains et d’outils algorithmiques. (Lorsque WIRED a ajouté des commentaires sur le site Web plus tôt cette année, nous nous sommes tournés vers Coral.) Ces outils permettent de signaler et de classer les commentaires potentiellement dangereux avant qu’un humain puisse les examiner, ce qui aide à gérer la charge de travail et à réduire la visibilité du contenu toxique.

Une autre approche qui a gagné en popularité est de donner aux commentateurs des commentaires automatisés, les encourageant à repenser un commentaire toxique avant ils ont frappé publier. Une nouvelle étude examine l’efficacité de ces invites d’auto-édition. L’étude, menée par OpenWeb et la plate-forme de conversation AI de Google, Perspective API, a impliqué plus de 400000 commentaires sur des sites Web d’actualités, comme AOL, RT et Newsweek, qui ont testé une fonction de rétroaction en temps réel dans leurs sections de commentaires. Plutôt que de rejeter automatiquement un commentaire qui enfreint les normes de la communauté, l’algorithme inviterait d’abord les commentateurs avec un message d’avertissement: «Gardons la conversation civile. Veuillez supprimer tout langage inapproprié de votre commentaire »ou« Certains membres de la communauté peuvent trouver votre commentaire inapproprié. Réessayer? » Un autre groupe de commentateurs a servi de témoin et n’a vu aucun message d’intervention.

L’étude a révélé que pour environ un tiers des commentateurs, voir l’intervention les a amenés à réviser leurs commentaires. Jigsaw, le groupe de Google qui fabrique l’API Perspective, dit que s’accorde avec des recherches antérieures, y compris une étude qu’il a réalisée avec Coral, qui a révélé que 36% des personnes ont modifié un langage toxique dans un commentaire lorsqu’elles y étaient invitées. Une autre expérience – de Le Missourien du sud-est, qui utilise également le logiciel de Perspective – a constaté que le fait de donner des commentaires en temps réel aux commentateurs réduisait de 96% le nombre de commentaires considérés comme «très toxiques».

le façons les gens ont révisé leurs commentaires n’étaient pas toujours positifs, cependant. Dans l’étude OpenWeb, environ la moitié des personnes qui ont choisi de modifier leur commentaire l’ont fait pour supprimer ou remplacer le langage toxique, ou pour remodeler entièrement le commentaire. Ces personnes semblaient à la fois comprendre pourquoi le commentaire original avait été signalé et admettre qu’elles pouvaient le réécrire d’une manière plus agréable. Mais environ un quart de ceux qui ont révisé leur commentaire l’ont fait pour contourner le filtre de toxicité, en modifiant l’orthographe ou l’espacement d’un mot offensant pour essayer de contourner la détection algorithmique. Les autres ont changé la mauvaise partie du commentaire, semblant ne pas comprendre ce qui n’allait pas avec la version originale, ou ont révisé leur commentaire pour répondre directement à la fonctionnalité elle-même (par exemple «Prenez votre censure et bourrez-la»).

Continue de lire

La modération algorithmique étant devenue plus courante, les adaptations linguistiques ont suivi leurs traces. Les gens apprennent que des mots spécifiques – disons «cuck» – font sauter le filtre et commencent à les écrire différemment («cuck») ou à inventer de nouveaux mots. Après la mort d’Ahmaud Arbery en février, par exemple, Vice a rapporté que certains groupes suprémacistes blancs en ligne avaient commencé à utiliser le mot «jogger» à la place d’insultes raciales plus connues. Ces modèles échappent largement aux filtres algorithmiques et peuvent rendre plus difficile la police en ligne d’un langage intentionnellement offensant.

Ido Goldberg, SVP produit d’OpenWeb, affirme que ce type de comportement adaptatif était l’une des principales préoccupations lors de la conception de leur fonction de rétroaction en temps réel. «Il y a cette fenêtre d’abus qui est ouverte pour essayer de tromper le système», dit-il. «Évidemment, nous en avons vu une partie, mais pas autant que nous le pensions.» Plutôt que d’utiliser les messages d’avertissement pour jouer avec le système de modération, la plupart des utilisateurs qui ont vu des interventions n’ont pas du tout changé leurs commentaires. Trente-six pour cent des utilisateurs qui ont vu l’intervention ont quand même publié leur commentaire, sans apporter de modifications. (Le message d’intervention a agi comme un avertissement, pas un obstacle à la publication.) Un autre 18 pour cent ont publié leur commentaire, non édité, après avoir actualisé la page, suggérant qu’ils ont pris l’avertissement comme un blocage. Un autre 12 pour cent a tout simplement abandonné, abandonnant l’effort et ne publiant pas du tout.

LAISSER UN COMMENTAIRE

Rédigez votre commentaire !
Entrez votre nom ici