En début de semaine, Liam Porr n'avait entendu parler que de GPT-3. À la fin, l'étudiant avait utilisé le modèle d'IA pour produire un blog entièrement faux sous un faux nom.

C'était une expérience amusante. Mais ensuite, l'un de ses messages a trouvé son chemin vers la première place sur Hacker News. Peu de gens ont remarqué que son blog était entièrement généré par l'IA. Certains ont même cliqué sur "S'abonner".

Bien que beaucoup aient spéculé sur la façon dont GPT-3, l'outil d'IA générateur de langage le plus puissant à ce jour, pourrait affecter la production de contenu, c'est l'un des seuls cas connus pour illustrer le potentiel. Ce qui a le plus marqué cette expérience, dit Porr, qui étudie l'informatique à l'Université de Californie à Berkeley: «C'était super facile, en fait, ce qui était la partie effrayante.»

GPT-3 est le dernier et le plus grand modèle d'IA de langage d'OpenAI, que le laboratoire de recherche basé à San Francisco a commencé à administrer au goutte à goutte à la mi-juillet. En février de l'année dernière, OpenAI a fait les gros titres avec GPT-2, une version antérieure de l'algorithme, qu'il a annoncé qu'il retiendrait par crainte d'être abusé. La décision a immédiatement déclenché un contrecoup, alors que les chercheurs ont accusé le laboratoire d'avoir fait une cascade. En novembre, le laboratoire avait inversé sa position et publié le modèle, affirmant qu'il n'avait détecté «aucune preuve solide d'utilisation abusive jusqu'à présent».

Le laboratoire a adopté une approche différente avec GPT-3; il ne l'a ni refusé ni accordé l'accès du public. Au lieu de cela, il a donné l'algorithme pour sélectionner les chercheurs qui ont postulé pour une version bêta privée, dans le but de recueillir leurs commentaires et de commercialiser la technologie d'ici la fin de l'année.

Porr a présenté une demande. Il a rempli un formulaire avec un simple questionnaire sur son utilisation prévue. Mais il n’a pas non plus attendu. Après avoir contacté plusieurs membres de la communauté Berkeley AI, il a rapidement trouvé un doctorant qui avait déjà accès. Une fois que l'étudiant diplômé a accepté de collaborer, Porr lui a écrit un petit scénario à exécuter. Il a donné à GPT-3 le titre et l'introduction d'un article de blog et il a craché plusieurs versions terminées. Le premier message de Porr (celui qui a tracé sur Hacker News), et chaque message après, était un copier-coller direct à partir de l'une des sorties.

«Depuis le moment où j'ai pensé à l'idée et que j'ai pris contact avec le doctorant, jusqu'à la création du blog et du premier blog à devenir viral, cela a pris peut-être quelques heures», dit-il.

Une capture d'écran de l'un des faux articles de blog de Liam Porr au numéro 1 de Hacker News.
Le faux article de blog de Porr, écrit sous le faux nom "adolos", atteint la première place sur Hacker News.
Capture d'écran / LIAM PORR

L'astuce pour générer du contenu sans avoir besoin de le modifier était de comprendre les forces et les faiblesses de GPT-3. «C’est assez bon pour faire un joli langage, et ce n’est pas très bon pour être logique et rationnel», dit Porr. Il a donc choisi une catégorie de blog populaire qui ne nécessite pas de logique rigoureuse: la productivité et l'auto-assistance.

À partir de là, il a écrit ses titres en suivant une formule simple: il faisait défiler sur Medium et Hacker News pour voir ce qui se produisait dans ces catégories et mettre en place quelque chose de relativement similaire. «Vous vous sentez improductif? Peut-être devriez-vous arrêter de trop réfléchir », a-t-il écrit pour un. «L'audace et la créativité l'emportent sur l'intelligence», écrit-il pour un autre. À quelques reprises, les gros titres n’ont pas fonctionné. Mais tant qu'il restait sur les bons sujets, le processus était facile.

Après deux semaines de publications presque quotidiennes, il a retiré le projet avec un dernier message cryptique et écrit par lui-même. Intitulé «Ce que je ferais avec GPT-3 si je n'avais pas d'éthique», il décrivait son processus comme hypothétique. Le même jour, il a également publié une confession plus simple sur son vrai blog.

Une capture d'écran de quelqu'un sur Hacker News accusant le blog de Porr d'avoir été écrit par GPT-3. Un autre utilisateur répond que le commentaire
Les quelques personnes qui se sont méfiées du faux blog de Porr ont été critiquées par d’autres membres de la communauté.
Capture d'écran / LIAM PORR

Porr dit qu'il voulait prouver que GPT-3 pouvait être fait passer pour un écrivain humain. En effet, malgré le modèle d'écriture quelque peu étrange de l'algorithme et des erreurs occasionnelles, seules trois ou quatre des dizaines de personnes qui ont commenté son principal article sur Hacker News ont soulevé des soupçons selon lesquelles il aurait pu être généré par un algorithme. Tous ces commentaires ont été immédiatement rejetés par les autres membres de la communauté.

Pour les experts, cela a longtemps été l'inquiétude soulevée par ces algorithmes générateurs de langage. Depuis qu'OpenAI a annoncé pour la première fois GPT-2, les gens ont émis l'hypothèse qu'il était vulnérable aux abus. Dans son propre article de blog, le laboratoire s'est concentré sur le potentiel de l'outil d'IA à être armé en tant que producteur de masse de désinformation. D'autres se sont demandé s'il pouvait être utilisé pour générer des messages de spam pleins de mots-clés pertinents pour le jeu Google.

Porr dit que son expérience montre également une alternative plus banale mais toujours troublante: les gens pourraient utiliser l'outil pour générer beaucoup de contenu clickbait. "Il est possible qu'il y ait juste un flot de contenu de blog médiocre parce que maintenant la barrière à l'entrée est si facile", dit-il. «Je pense que la valeur du contenu en ligne va être considérablement réduite.»

Porr prévoit de faire plus d'expériences avec GPT-3. Mais il attend toujours d'avoir accès à OpenAI. «Il est possible qu’ils soient contrariés que je l’ai fait», dit-il. "Je veux dire, c'est un peu idiot."

LAISSER UN COMMENTAIRE

Rédigez votre commentaire !
Entrez votre nom ici