L’humain au centre d’une défense numérique efficace

Par conséquent, la modération du contenu – la surveillance de l’UGC – est essentielle pour les expériences en ligne. Dans son livre Custodians of the Internet, le sociologue Tarleton Gillespie écrit qu’une modération efficace des contenus est nécessaire au fonctionnement des plateformes numériques, malgré la « notion utopique » d’un Internet ouvert. « Il n’y a pas de plate-forme qui n’impose pas de règles, dans une certaine mesure, ne pas le faire serait tout simplement intenable », écrit-il. « Les plateformes doivent, sous une forme ou une autre, modérer : à la fois pour protéger un utilisateur d’un autre, ou un groupe de ses antagonistes, et pour supprimer l’offensant, vil ou illégal – ainsi que pour présenter leur meilleur visage aux nouveaux utilisateurs, à leurs annonceurs et partenaires, et au grand public.

La modération de contenu est utilisée pour traiter un large éventail de contenus, dans tous les secteurs. Une modération de contenu habile peut aider les organisations à assurer la sécurité de leurs utilisateurs, leurs plates-formes utilisables et leur réputation intacte. Une approche des meilleures pratiques en matière de modération de contenu s’appuie sur des solutions techniques de plus en plus sophistiquées et précises tout en soutenant ces efforts avec des compétences et un jugement humains.

La modération de contenu est une industrie en croissance rapide, essentielle pour toutes les organisations et tous les individus qui se rassemblent dans les espaces numériques (c’est-à-dire plus de 5 milliards de personnes). Selon Abhijnan Dasgupta, directeur de la pratique spécialisée dans la confiance et la sécurité (T&S) chez Everest Group, l’industrie était évaluée à environ 7,5 milliards de dollars en 2023 – et les experts prévoient que ce nombre doublera d’ici 2024. Les recherches de Gartner suggèrent que près d’un tiers (30 %) des grandes entreprises considéreront la modération de contenu comme une priorité absolue d’ici 2024.

Modération de contenu : plus que les médias sociaux

Les modérateurs de contenu suppriment chaque jour des centaines de milliers de contenus problématiques. Le rapport sur l’application des normes communautaires de Facebook, par exemple, indique qu’au cours du seul troisième trimestre 2022, l’entreprise a supprimé 23,2 millions d’incidents de contenu violent et graphique et 10,6 millions d’incidents de discours de haine, en plus de 1,4 milliard de spams et de 1,5 milliard de faux comptes. Mais bien que les médias sociaux soient l’exemple le plus largement rapporté, un grand nombre d’industries s’appuient sur l’UGC – tout, des critiques de produits aux interactions avec le service client – et nécessitent par conséquent une modération du contenu.

« Tout site qui permet l’entrée d’informations qui ne sont pas produites en interne a besoin d’une modération de contenu », explique Mary L. Gray, chercheuse principale chez Microsoft Research, qui fait également partie du corps professoral de la Luddy School of Informatics, Computing, and Ingénierie à l’Université de l’Indiana. D’autres secteurs qui dépendent fortement de la modération de contenu comprennent la télésanté, les jeux, le commerce électronique et la vente au détail, ainsi que le secteur public et le gouvernement.

En plus de supprimer le contenu offensant, la modération de contenu peut détecter et éliminer les bots, identifier et supprimer les faux profils d’utilisateurs, traiter les avis et évaluations bidons, supprimer les spams, contrôler la publicité trompeuse, atténuer le contenu prédateur (en particulier celui qui cible les mineurs) et faciliter la sécurité de deux. communications à deux voies
dans les systèmes de messagerie en ligne. La fraude est un domaine très préoccupant, en particulier sur les plateformes de commerce électronique. « Il y a beaucoup de mauvais acteurs et d’escrocs qui essaient de vendre de faux produits, et il y a aussi un gros problème avec les fausses critiques », déclare Akash Pugalia, président mondial de la confiance et de la sécurité chez Teleperformance, qui fournit un support de modération de contenu non flagrant pour marques internationales. « Les modérateurs de contenu aident à s’assurer que les produits respectent les directives de la plate-forme, et ils suppriment également les produits interdits. »

Téléchargez le rapport.

Ce contenu a été produit par Insights, la branche de contenu personnalisé de MIT Technology Review. Il n’a pas été rédigé par la rédaction de MIT Technology Review.

François Zipponi
Je suis François Zipponi, éditorialiste pour le site 10-raisons.fr. J'ai commencé ma carrière de journaliste en 2004, et j'ai travaillé pour plusieurs médias français, dont le Monde et Libération. En 2016, j'ai rejoint 10-raisons.fr, un site innovant proposant des articles sous la forme « 10 raisons de... ». En tant qu'éditorialiste, je me suis engagé à fournir un contenu original et pertinent, abordant des sujets variés tels que la politique, l'économie, les sciences, l'histoire, etc. Je m'efforce de toujours traiter les sujets de façon objective et impartiale. Mes articles sont régulièrement partagés sur les réseaux sociaux et j'interviens dans des conférences et des tables rondes autour des thèmes abordés sur 10-raisons.fr.