Quand OpenAI a démontré puissant algorithme d’intelligence artificielle capable de générer un texte cohérent en juin dernier, ses créateurs ont averti que l’outil pourrait potentiellement être utilisé comme une arme de désinformation en ligne.

Maintenant, une équipe d’experts en désinformation a démontré l’efficacité avec laquelle cet algorithme, appelé GPT-3, pouvait être utilisé pour induire en erreur et désinformer. Les résultats suggèrent que bien que l’IA ne soit pas à la hauteur du meilleur agent russe de création de mèmes, elle pourrait amplifier certaines formes de tromperie qui seraient particulièrement difficiles à repérer.

Pendant six mois, un groupe du Center for Security and Emerging Technology de l’Université de Georgetown a utilisé GPT-3 pour générer de la désinformation, notamment des histoires autour d’un faux récit, des articles de presse modifiés pour promouvoir une fausse perspective et des tweets sur des points particuliers de désinformation.

«Je ne pense pas que ce soit une coïncidence si le changement climatique est le nouveau réchauffement climatique», lit un exemple de tweet composé par GPT-3 qui visait à attiser le scepticisme à propos du changement climatique. «Ils ne peuvent pas parler d’augmentations de température parce qu’elles ne se produisent plus.» Un deuxième appelait le changement climatique «le nouveau communisme – une idéologie basée sur une fausse science qui ne peut être remise en question».

«Avec un peu de curation humaine, GPT-3 est assez efficace» pour promouvoir les mensonges, dit Ben Buchanan, professeur à Georgetown impliqué dans l’étude, qui se concentre sur l’intersection de l’IA, de la cybersécurité et de la politique.

Les chercheurs de Georgetown affirment que GPT-3, ou un algorithme de langage IA similaire, pourrait s’avérer particulièrement efficace pour générer automatiquement des messages courts sur les réseaux sociaux, ce que les chercheurs appellent la désinformation «un-à-plusieurs».

Lors d’expériences, les chercheurs ont découvert que l’écriture de GPT-3 pouvait influencer les opinions des lecteurs sur les questions de diplomatie internationale. Les chercheurs ont montré à des volontaires des échantillons de tweets écrits par GPT-3 sur le retrait des troupes américaines d’Afghanistan et les sanctions américaines contre la Chine. Dans les deux cas, ils ont constaté que les participants étaient influencés par les messages. Après avoir vu des publications s’opposant aux sanctions chinoises, par exemple, le pourcentage de répondants qui se sont déclarés contre une telle politique a doublé.

Mike Gruszczynski, professeur à l’Université de l’Indiana qui étudie les communications en ligne, dit qu’il ne serait pas surpris de voir l’IA jouer un rôle plus important dans les campagnes de désinformation. Il souligne que les robots ont joué un rôle clé dans la diffusion de faux récits ces dernières années et que l’IA peut être utilisée pour générer de fausses photos de profil sur les réseaux sociaux. Avec les bots, les deepfakes et d’autres technologies, «je pense vraiment que le ciel est malheureusement la limite», dit-il.

Les chercheurs en IA ont récemment construit des programmes capables d’utiliser le langage de manière surprenante, et GPT-3 est peut-être la démonstration la plus surprenante de toutes. Bien que les machines ne comprennent pas le langage de la même manière que les gens, les programmes d’IA peuvent imiter la compréhension simplement en se nourrissant de grandes quantités de texte et en recherchant des modèles dans la façon dont les mots et les phrases s’emboîtent.

Les chercheurs d’OpenAI ont créé GPT-3 en alimentant de grandes quantités de texte récupéré à partir de sources Web, notamment Wikipedia et Reddit, vers un algorithme d’IA particulièrement volumineux conçu pour gérer le langage. GPT-3 a souvent stupéfié les observateurs avec sa maîtrise apparente du langage, mais il peut être imprévisible, crachant un babillage incohérent et un langage offensant ou haineux.

OpenAI a mis GPT-3 à la disposition de dizaines de startups. Les entrepreneurs utilisent le loquace GPT-3 pour générer automatiquement des e-mails, parler aux clients et même écrire du code informatique. Mais certaines utilisations du programme ont également démontré son potentiel plus sombre.

Faire en sorte que GPT-3 se comporte serait également un défi pour les agents de désinformation. Buchanan note que l’algorithme ne semble pas capable de générer de manière fiable des articles cohérents et convaincants beaucoup plus longs qu’un tweet. Les chercheurs n’ont pas essayé de montrer les articles qu’il produisait aux volontaires.

Mais Buchanan prévient que les acteurs étatiques pourraient être en mesure de faire plus avec un outil linguistique tel que GPT-3. «Les adversaires avec plus d’argent, plus de capacités techniques et moins d’éthique pourront mieux utiliser l’IA», dit-il. « De plus, les machines ne feront que s’améliorer. »

OpenAI affirme que les travaux de Georgetown mettent en évidence un problème important que l’entreprise espère atténuer. «Nous travaillons activement pour lutter contre les risques pour la sécurité associés à GPT-3», a déclaré un porte-parole d’OpenAI. «Nous examinons également chaque utilisation en production de GPT-3 avant sa mise en service et avons mis en place des systèmes de surveillance pour restreindre et répondre à l’utilisation abusive de notre API.»


Plus d’histoires WIRED