En 2018, Sam Cole, journaliste à Motherboard, a découvert un coin nouveau et dérangeant d’Internet. Un utilisateur de Reddit du nom de «deepfakes» publiait de fausses vidéos porno non consensuelles à l’aide d’un algorithme d’IA pour échanger les visages de célébrités en du vrai porno. Cole a sonné l’alarme sur le phénomène, juste au moment où la technologie était sur le point d’exploser. Un an plus tard, le deepfake porn s’était répandu bien au-delà de Reddit, avec des applications facilement accessibles qui pouvaient «enlever» les vêtements de n’importe quelle femme photographiée.

Depuis lors, les deepfakes ont eu une mauvaise réputation, et à juste titre. La grande majorité d’entre eux sont encore utilisés pour de la fausse pornographie. Une journaliste d’investigation a été gravement harcelée et temporairement réduite au silence par une telle activité, et plus récemment, une poétesse et romancière a été effrayée et honteuse. Il y a aussi le risque que les deepfakes politiques génèrent de fausses nouvelles convaincantes qui pourraient faire des ravages dans des environnements politiques instables.

Mais à mesure que les algorithmes de manipulation et de synthèse des médias sont devenus plus puissants, ils ont également donné lieu à des applications positives, ainsi qu’à certaines qui sont humoristiques ou banales. Voici un aperçu de certains de nos favoris dans un ordre chronologique approximatif, et pourquoi nous pensons qu’ils sont un signe de ce qui est à venir.

Protection des dénonciateurs

À gauche: une grille photo de Maxim prise sous plusieurs angles.  À droite: une grille de photos de sa couverture deepfake prise sous plusieurs angles.

TEUS MEDIA

En juin, Bienvenue à Chechyna, un film d’enquête sur la persécution des personnes LGBTQ dans la république russe, est devenu le premier documentaire à utiliser deepfakes pour protéger l’identité de ses sujets. Les militants combattant la persécution, qui ont été les personnages principaux de l’histoire, ont vécu cachés pour éviter d’être torturés ou tués. Après avoir exploré de nombreuses méthodes pour dissimuler leur identité, le réalisateur David France a décidé de leur donner des «couvertures» profondes. Il a demandé à d’autres militants LGBTQ du monde entier de prêter leurs visages, qui ont ensuite été greffés sur les visages des personnes de son film. La technique a permis à la France de préserver l’intégrité des expressions faciales de ses sujets et donc leur douleur, leur peur et leur humanité. Au total, le film a protégé 23 personnes, pionnier d’une nouvelle forme de protection des dénonciateurs.

Histoire révisionniste

Un écran partagé de l'acteur Lewis D. Wheeler à gauche et de Deepfake Nixon à droite.

PANETTA ET BOURGOGNE

En juillet, deux chercheurs du MIT, Francesca Panetta et Halsey Burgund, ont publié un projet visant à créer une histoire alternative de l’alunissage Apollo de 1969. Appelé En cas de désastre lunaire, il utilise le discours que le président Richard Nixon aurait prononcé si l’occasion mémorable ne s’était pas déroulée comme prévu. Les chercheurs se sont associés à deux sociétés distinctes pour le deepfake audio et vidéo et ont embauché un acteur pour fournir la performance «de base». Ils ont ensuite fait passer sa voix et son visage à travers les deux types de logiciels, et les ont assemblés dans un deepfake final Nixon.

Alors que ce projet démontre comment les deepfakes pourraient créer de puissantes histoires alternatives, un autre suggère comment les deepfakes pourraient donner vie à une véritable histoire. En février, le magazine Time a recréé la Marche à Washington de Martin Luther King Jr. pour la réalité virtuelle afin de plonger les téléspectateurs dans la scène. Le projet n’a pas utilisé la technologie deepfake, mais le géant chinois de la technologie Tencent l’a plus tard cité dans un livre blanc sur ses projets d’IA, affirmant que les deepfakes pourraient être utilisés à des fins similaires à l’avenir.

Memes

À la fin de l’été, la memersphere a mis la main sur des deepfakes simples à réaliser et a lancé les résultats dans l’univers numérique. Un mème viral en particulier, appelé «Baka Mitai» (photo ci-dessus), a rapidement explosé à mesure que les gens apprenaient à utiliser la technologie pour créer leurs propres versions. L’algorithme spécifique qui alimente la folie est issu d’un article de recherche de 2019 qui permet à un utilisateur d’animer une photo du visage d’une personne avec une vidéo de quelqu’un d’autre. L’effet n’est pas de haute qualité par un effort d’imagination, mais il produit certainement un plaisir de qualité. Le phénomène n’est pas entièrement surprenant; le jeu et la parodie ont été une force motrice dans la vulgarisation des deepfakes et autres outils de manipulation des médias. C’est pourquoi certains experts soulignent le besoin de garde-corps pour empêcher la satire de se brouiller en abus.

Annonces sportives

LAISSER UN COMMENTAIRE

Rédigez votre commentaire !
Entrez votre nom ici