À mesure que les entreprises développent de plus en plus de types de technologies pour rechercher et supprimer du contenu de différentes manières, on s’attend à ce qu’elles l’utilisent. Pouvez modéré implique devrait modérer. Après tout, une fois qu’un outil a été utilisé, il est difficile de le remettre dans la boîte. Mais la modération du contenu fait désormais boule de neige, et les dommages collatéraux sur son passage sont trop souvent ignorés.

Il y a une opportunité maintenant pour un examen attentif de la voie à suivre. Les comptes de médias sociaux de Trump et les élections sont dans le rétroviseur, ce qui signifie que la modération du contenu n’est plus l’histoire constante d’A1. Cela prouve peut-être que la source réelle d’une grande partie de l’angoisse était la politique, pas les plates-formes. Mais il y a – ou devrait y avoir – un malaise persistant face à l’impressionnante démonstration de pouvoir qu’une poignée de dirigeants d’entreprise a montrée en désactivant les comptes du leader du monde libre.

Le chaos de 2020 a brisé toute idée selon laquelle il existe une catégorie claire de « désinformation » nuisible que quelques personnes puissantes de la Silicon Valley doivent éliminer, ou même qu’il existe un moyen de distinguer la santé de la politique. La semaine dernière, par exemple, Facebook a inversé sa politique et a déclaré qu’il ne supprimerait plus les publications affirmant que Covid-19 est fabriqué ou fabriqué par l’homme. Il y a seulement quelques mois Le New York Times avait cité la croyance en cette théorie «sans fondement» comme preuve que les médias sociaux avaient contribué à une «crise de la réalité» en cours. Il y a eu un va-et-vient similaire avec les masques. Au début de la pandémie, Facebook a interdit les publicités pour eux sur le site. Cela a duré jusqu’en juin, lorsque l’OMS a finalement modifié ses directives pour recommander le port de masques, malgré le fait que de nombreux experts l’aient conseillé beaucoup plus tôt. La bonne nouvelle, je suppose, c’est qu’ils n’étaient pas très efficaces pour faire respecter l’interdiction en premier lieu. (À l’époque, cependant, cela n’était pas considéré comme une bonne nouvelle.)

Au fur et à mesure que l’on apprendra ce que les autorités se sont trompé pendant la pandémie ou des cas où la politique, et non l’expertise, a déterminé des récits, il y aura naturellement plus de scepticisme quant à leur confiance ou aux plateformes privées pour décider quand mettre fin à la conversation. Émettre des conseils de santé publique pour un moment donné n’est pas la même chose que déclarer les limites raisonnables du débat.

Les appels à de nouvelles mesures de répression ont également des coûts géopolitiques. Les gouvernements autoritaires et répressifs du monde entier ont invoqué la rhétorique des démocraties libérales pour justifier leur propre censure. C’est évidemment une comparaison spécieuse. Mettre fin aux critiques sur la gestion par le gouvernement d’une urgence de santé publique, comme le fait le gouvernement indien, est un affront aussi clair que possible à la liberté d’expression. Mais là est une certaine tension en criant sur les plates-formes pour en prendre plus ici mais arrête de prendre autant de bas là-bas. Jusqu’à présent, les gouvernements occidentaux ont refusé d’aborder cette question. Ils ont largement laissé les plateformes se débrouiller seules dans la montée mondiale de l’autoritarisme numérique. Et les plates-formes sont perdantes. Les gouvernements doivent marcher et mâcher du chewing-gum dans la façon dont ils parlent de la réglementation des plateformes et de la liberté d’expression s’ils veulent défendre les droits des nombreux utilisateurs à l’extérieur de leurs frontières.

Il y a d’autres compromis. Parce que la modération de contenu à grande échelle ne sera jamais parfaite, la question est toujours de savoir de quel côté de la ligne se tromper lors de l’application des règles. Des règles plus strictes et une application plus stricte signifient nécessairement plus de faux positifs : c’est-à-dire que des discours plus précieux seront supprimés. Ce problème est exacerbé par la dépendance accrue à l’égard de la modération automatisée pour supprimer le contenu à grande échelle : ces outils sont grossiers et stupides. Si on leur dit de supprimer plus de contenu, les algorithmes n’y réfléchiront pas à deux fois. Ils ne peuvent pas évaluer le contexte ou faire la différence entre un contenu glorifiant la violence ou l’enregistrement de preuves de violations des droits de l’homme, par exemple. Le bilan de ce type d’approche a été clair pendant le conflit palestino-israélien de ces dernières semaines, car Facebook a supprimé à plusieurs reprises des contenus essentiels concernant et concernant les Palestiniens. Ce n’est pas une pièce unique. Peut-être devrait-il ne pas impliquent toujours devoir, d’autant plus que nous savons que ces erreurs ont tendance à tomber de manière disproportionnée sur des communautés déjà marginalisées et vulnérables.