En octobre 2019, L’Idaho a proposé de modifier son programme Medicaid. L’État avait besoin de l’approbation du gouvernement fédéral, qui a sollicité les commentaires du public via Medicaid.gov.

Environ 1 000 commentaires sont arrivés. Mais la moitié ne venait pas de citoyens inquiets ni même de trolls Internet. Ils ont été générés par l’intelligence artificielle. Et une étude a révélé que les gens ne pouvaient pas distinguer les vrais commentaires des faux.

Le projet était l’œuvre de Max Weiss, un étudiant en médecine à Harvard, mais il a reçu peu d’attention à l’époque. Maintenant que les systèmes linguistiques d’IA progressent rapidement, certains disent que le gouvernement et les entreprises Internet doivent repenser la façon dont ils sollicitent et filtrent les commentaires pour se prémunir contre la manipulation de texte en profondeur et d’autres interférences alimentées par l’IA.

«La facilité avec laquelle un robot peut générer et soumettre un texte pertinent qui imite la parole humaine sur les sites Web gouvernementaux est surprenante et vraiment importante à savoir», déclare Latanya Sweeney, professeur à la Kennedy School de Harvard qui a conseillé Weiss sur la manière de mener l’expérience de manière éthique.

Sweeney dit que les problèmes vont bien au-delà des services gouvernementaux, mais il est impératif que les agences publiques trouvent une solution. «L’IA peut noyer la parole de vrais humains», dit-elle. «Les sites Web gouvernementaux doivent changer.»

Les Centers for Medicare et Medicaid Services déclarent avoir ajouté de nouvelles garanties au système de commentaires publics en réponse à l’étude de Weiss, bien qu’il refuse de discuter des détails. Weiss dit avoir été contacté par l’Administration des services généraux des États-Unis, qui développe une nouvelle version du site Web du gouvernement fédéral pour la publication de règlements et de commentaires, sur les moyens de mieux le protéger contre les faux commentaires.

Les systèmes gouvernementaux ont déjà été la cible de campagnes d’influence automatisées. En 2017, les chercheurs ont découvert que plus d’un million de commentaires soumis à la Federal Communications Commission concernant des projets de restauration des règles de neutralité du net avaient été générés automatiquement, certaines phrases étant copiées et collées dans différents messages.

Le projet de Weiss met en évidence une menace plus grave. Des progrès remarquables ont été accomplis dans l’application de l’IA au langage au cours des dernières années. Lorsque de puissants algorithmes d’apprentissage automatique reçoivent d’énormes quantités de données d’entraînement – sous la forme de livres et de textes extraits du Web – ils peuvent produire des programmes capables de générer un texte convaincant. Outre une myriade d’applications utiles, cela soulève la perspective que toutes sortes de messages Internet, de commentaires et de publications pourraient être simulés facilement et de manière moins détectable.

«À mesure que la technologie s’améliore», dit Sweeney, «les lieux de parole humains deviennent sujets à manipulation sans que l’homme sache que cela s’est produit.» Weiss travaillait dans une organisation de défense des consommateurs de soins de santé à l’été 2019 lorsqu’il a appris le processus de rétroaction du public nécessaire pour apporter des changements à Medicaid. Sachant que ces commentaires publics avaient influencé les efforts précédents pour changer les programmes Medicaid d’état, Weiss a recherché des outils capables de générer automatiquement des commentaires.

«J’ai été un peu choqué quand je n’ai vu rien de plus qu’un bouton d’envoi empêchant votre commentaire de devenir une partie du dossier public», dit-il.

image de l'article

Le guide WIRED de l’intelligence artificielle

Les algorithmes supersmart ne prendront pas tous les emplois, mais ils apprennent plus vite que jamais, allant des diagnostics médicaux à la diffusion d’annonces.

Weiss a découvert GPT-2, un programme publié plus tôt cette année-là par OpenAI, une société d’IA de San Francisco, et s’est rendu compte qu’il pouvait générer de faux commentaires pour simuler une vague de fond de l’opinion publique. «J’ai également été choqué de voir à quel point il était facile d’ajuster GPT-2 pour recracher les commentaires», dit Weiss. «C’est relativement préoccupant sur plusieurs fronts.»

Outre l’outil de génération de commentaires, Weiss a créé un logiciel pour soumettre automatiquement des commentaires. Il a également mené une expérience dans laquelle on a demandé aux volontaires de faire la distinction entre les commentaires générés par l’IA et ceux écrits par des humains. Les volontaires n’ont rien fait de mieux que de deviner au hasard.

Après avoir soumis les commentaires, Weiss a informé les Centers for Medicare et Medicaid Services. Il avait ajouté quelques caractères pour faciliter l’identification de chaque faux commentaire. Même ainsi, dit-il, les commentaires de l’IA sont restés en ligne pendant plusieurs mois.

OpenAI a publié une version plus performante de son programme de génération de texte, appelée GPT-3, en juin dernier. Jusqu’à présent, il n’a été mis à la disposition que de quelques chercheurs et entreprises en IA, certaines personnes créant des applications utiles telles que des programmes qui génèrent des messages électroniques à partir de puces. Lorsque GPT-3 a été publié, OpenAI a déclaré dans un document de recherche qu’il n’avait pas vu de signes d’utilisation malveillante de GPT-2, même s’il était au courant des recherches de Weiss.

LAISSER UN COMMENTAIRE

Rédigez votre commentaire !
Entrez votre nom ici