Kathleen M. Carley et son équipe du Centre pour la démocratie informée et la cybersécurité de l'Université Carnegie Mellon suivent depuis longtemps les robots et influencent les campagnes. À travers les élections américaines et étrangères, les catastrophes naturelles et autres événements politisés, le niveau d'implication des bots se situe normalement entre 10 et 20%, dit-elle.

Mais dans une nouvelle étude, les chercheurs ont découvert que les bots pouvaient représenter entre 45 et 60% des comptes Twitter discutant de covid-19. Beaucoup de ces comptes ont été créés en février et ont depuis répandu et amplifié la désinformation, y compris de faux avis médicaux, des théories du complot sur l'origine du virus, et poussent à mettre fin aux ordonnances de séjour à domicile et à rouvrir l'Amérique.

Ils suivent des schémas bien usés de campagnes d'influence coordonnées, et leur stratégie fonctionne déjà: depuis le début de la crise, les chercheurs ont observé une plus grande polarisation du discours de Twitter autour du sujet.

Un certain nombre de facteurs pourraient expliquer cette poussée. La nature mondiale de la pandémie signifie qu'un plus grand nombre d'acteurs sont motivés à tirer parti de la crise comme moyen de respecter leurs agendas politiques. La désinformation est également désormais plus coordonnée en général, avec plus d'entreprises disponibles à la location pour créer de telles campagnes d'influence.

Mais ce n’est pas seulement le volume des comptes qui inquiète Carley, la directrice du centre. Leurs modèles de comportement sont également devenus plus sophistiqués. Les robots sont désormais souvent plus en réseau avec d'autres comptes, ce qui leur permet de diffuser plus facilement leurs messages. Ils s'engagent également dans plus de stratégies pour cibler les groupes à risque comme les immigrants et les minorités et aident les vrais comptes engagés dans des discours de haine à former des groupes en ligne.

Pour effectuer leur analyse la plus récente, les chercheurs ont étudié plus de 200 millions de tweets sur le coronavirus ou le covid-19 depuis janvier. Ils ont utilisé des techniques d'apprentissage automatique et d'analyse de réseau pour identifier les comptes qui diffusaient la désinformation et ceux qui étaient probablement des bots ou des cyborgs (comptes gérés conjointement par des bots et des humains).

Le système recherche 16 manœuvres différentes que les comptes de désinformation peuvent effectuer, y compris le «pontage» entre deux groupes (reliant deux communautés en ligne), le «soutien» d'un individu (suivre le compte pour augmenter le niveau d'influence perçu de la personne) et le «nuking» un groupe (actions qui conduisent au démantèlement d'une communauté en ligne).

Grâce à l'analyse, ils ont identifié plus de 100 types d'histoires inexactes de covid-19 et ont constaté que non seulement les bots gagnaient en traction et accumulaient des followers, mais qu'ils représentaient 82% des 50 premiers et 62% des 1000 meilleurs retweeters influents. L'influence de chaque compte a été calculée pour refléter le nombre de followers qu'il a atteint ainsi que le nombre de followers que ses followers ont atteints.

Les chercheurs ont commencé à analyser Facebook, Reddit et YouTube pour comprendre comment la désinformation se propage entre les plateformes. Le travail en est encore à ses débuts, mais il a déjà révélé des schémas inattendus. D'une part, les chercheurs ont constaté que de nombreuses histoires de désinformation proviennent de sites Web ou de blogs réguliers avant d'être récupérées sur différentes plateformes sociales et amplifiées. Différents types d'histoires ont également des modèles de provenance différents. Ceux qui prétendent que le virus est une arme biologique, par exemple, proviennent principalement de sites dits «de nouvelles noires», de fausses pages de nouvelles conçues pour diffuser la désinformation qui sont souvent diffusées en dehors des États-Unis. En revanche, la rhétorique «rouvrir l'Amérique» provient principalement de blogs et de pages Facebook gérés aux États-Unis.

Les chercheurs ont également constaté que les utilisateurs de différentes plates-formes réagiraient à ces contenus de manière très différente. Sur Reddit, par exemple, les modérateurs sont plus susceptibles de démystifier et d'interdire la désinformation. Lorsqu'une campagne coordonnée autour de la réouverture de l'Amérique a éclaté sur Facebook, les utilisateurs de Reddit ont commencé à discuter du phénomène et à contrecarrer la messagerie. "Ils disaient:" Ne croyez rien de tout ça. " Vous ne pouvez pas faire confiance à Facebook », explique Carley.

Malheureusement, il n'y a pas de solution simple à ce problème. L'interdiction ou la suppression de comptes ne fonctionnera pas, car d'autres peuvent être créés pour chaque personne supprimée. L'interdiction des comptes qui diffusent des faits inexacts ne résoudra rien non plus. «Beaucoup de désinformation se fait par insinuation ou par des déclarations illogiques, et celles-ci sont difficiles à découvrir», dit-elle.

Carley affirme que les chercheurs, les entreprises et le gouvernement doivent mieux coordonner leurs efforts pour trouver des politiques et des pratiques efficaces pour réduire cela. «Je pense que nous avons besoin d'une sorte de groupe de surveillance générale», dit-elle. "Parce qu'aucun groupe ne peut le faire seul."

LAISSER UN COMMENTAIRE

Rédigez votre commentaire !
Entrez votre nom ici