Les nouvelles technologies entraînent avec elles la menace du changement. Les outils d’IA sont l’un des derniers développements de ce type. Mais comme c’est souvent le cas, lorsque des menaces technologiques apparaissent, elles finissent par paraître terriblement humaines.
Récemment, [E. M. Wolkovich] a soumis pour examen un article scientifique qui, à sa grande surprise, a été déclaré « manifestement » le travail de ChatGPT. Rien de tout cela n’était vrai. Comme la plupart des gens, [E. M. Wolkovich] trouve que l’écriture est un processus quelque peu difficile. Son article représente beaucoup de temps et d’efforts. Mais malgré l’absence de preuves, cette accusation fortuite de fraude dans un contexte scientifique a été en quelque sorte… acceptée.
Cela est préoccupant pour plusieurs raisons. La première est qu’en principe, la communauté scientifique ne songerait pas à porter une accusation de fraude telle que la manipulation de données sans preuves. Mais un critique n’a eu aucun scrupule à affirmer avec désinvolture [Wolkovich]L’écriture de ce n’était pas la sienne, ce qui la traitait effectivement de menteuse. Pire encore, au niveau éditorial, cette accusation sans fondement a été acceptée et transmise avec un vague accord au lieu de toute sorte de résistance.
Montrer votre travail ne suffit pas
De façon intéressante, [Wolkovich] écrit tout en texte brut à l’aide du système de composition LaTeX, hébergé sur GitHub, avec des validations de modifications. Cela signifie qu’elle pourrait facilement montrer l’intégralité de son historique de modifications, de l’ébauche au manuscrit terminé, ce qui devrait suffire à convaincre à peu près tout le monde qu’elle n’est pas un chatbot.
Mais en réfléchissant à cela, on se pose une très bonne question : [Wolkovich] devoir prouver qu’elle n’est pas un chatbot est une issue souhaitable à cette situation ? Nous ne pensons pas que ce soit le cas, et ce n’est pas non plus une question vaine. Nous avons vu que même lorsqu’un artiste peut présenter son flux de travail complet pour prouver qu’une IA n’a pas créé son art, l’accusation sème suffisamment de doute pour empoisonner la procédure (sans parler de démoraliser grandement le créateur dans le processus.)
De meilleures normes seraient utiles
[Wolkovich] profite de cette opportunité pour réfléchir et partager ce que cette situation indique sur un changement utile. Maintenant que les outils d’IA existent, des lignes directrices qui les reconnaissent devraient être créées. Des normes explicites sur le moment et la manière dont les outils d’IA peuvent être utilisés dans le processus d’écriture, sur la manière dont ces outils doivent être reconnus s’ils sont utilisés et sur un processus permettant de traiter les accusations d’utilisation abusive seraient autant de changements positifs.
Parce que dans l’état actuel des choses, c’est difficile à voir [Wolkovich]L’expérience de est autre chose qu’une illustration de la manière dont le processus de soumission et d’évaluation d’une communauté scientifique a été corrompu non pas par une utilisation non déclarée ou irréfléchie de l’IA, mais par le simple fait que de tels outils exister. Cela semble être à la fois un problème qui ne fera qu’empirer avec le temps (à l’heure actuelle, il est assez facile de détecter les chatbots) et qui ne se résoudra pas tout seul.