Images satellites montrant l’expansion des grands camps de détention au Xinjiang, en Chine, entre 2016 et 2018 a fourni certaines des preuves les plus solides d’une répression gouvernementale contre plus d’un million de musulmans, déclenchant une condamnation et des sanctions internationales.

D’autres images aériennes – des installations nucléaires en Iran et des sites de missiles en Corée du Nord, par exemple – ont eu un impact similaire sur les événements mondiaux. Désormais, les outils de manipulation d’images rendus possibles par l’intelligence artificielle peuvent rendre plus difficile l’acceptation de telles images à leur valeur nominale.

Dans un article publié en ligne le mois dernier, le professeur de l’Université de Washington, Bo Zhao, a utilisé des techniques d’IA similaires à celles utilisées pour créer de soi-disant deepfakes afin de modifier les images satellites de plusieurs villes. Zhao et ses collègues ont échangé des caractéristiques entre des images de Seattle et de Pékin pour montrer des bâtiments là où il n’y en avait pas à Seattle et pour supprimer des structures et les remplacer par de la verdure à Pékin.

Zhao a utilisé un algorithme appelé CycleGAN pour manipuler les photos satellites. L’algorithme, développé par des chercheurs de l’UC Berkeley, a été largement utilisé pour toutes sortes de tromperies d’images. Il forme un réseau de neurones artificiels à reconnaître les caractéristiques clés de certaines images, comme un style de peinture ou les caractéristiques d’un type particulier de carte. Un autre algorithme permet alors d’affiner les performances du premier en essayant de détecter lorsqu’une image a été manipulée.

Une carte (en haut à gauche) et une image satellite (en haut à droite) de Tacoma. Les images du bas ont été modifiées pour que Tacoma ressemble davantage à Seattle (en bas à gauche) et à Pékin (en bas à droite).

Gracieuseté de Zhao et al., 2021, Journal of Cartography and Geographic Information Science

Comme pour les clips vidéo deepfake qui prétendent montrer des personnes dans des situations compromettantes, de telles images pourraient induire les gouvernements en erreur ou se répandre sur les réseaux sociaux, semant la désinformation ou le doute sur des informations visuelles réelles.

«Je pense absolument que c’est un gros problème qui ne touchera peut-être pas le citoyen moyen demain, mais qui jouera un rôle beaucoup plus important dans les coulisses au cours de la prochaine décennie», déclare Grant McKenzie, professeur adjoint de science des données spatiales à l’Université McGill au Canada. qui n’était pas impliqué dans les travaux.

«Imaginez un monde où un gouvernement d’État, ou un autre acteur, peut manipuler de manière réaliste des images pour ne montrer rien là-bas ou une mise en page différente», dit McKenzie. « Je ne suis pas tout à fait sûr de ce qui peut être fait pour l’arrêter à ce stade. »

Quelques images satellites grossièrement manipulées se sont déjà répandues de manière virale sur les réseaux sociaux, y compris une photographie prétendant montrer l’Inde illuminée pendant le festival hindou de Diwali qui a apparemment été retouchée à la main. Ce n’est peut-être qu’une question de temps avant que des images satellites bien plus sophistiquées ne soient utilisées pour, par exemple, cacher des installations d’armes ou justifier à tort une action militaire.

Gabrielle Lim, chercheuse au Shorenstein Center de la Harvard Kennedy School qui se concentre sur la manipulation des médias, affirme que les cartes peuvent être utilisées pour induire en erreur sans l’IA. Elle montre du doigt images diffusées en ligne suggérant qu’Alexandria Ocasio-Cortez n’était pas là où elle prétendait être lors de l’insurrection du Capitole le 6 janvier, ainsi que des passeports chinois montrant une région contestée de la mer de Chine méridionale faisant partie de la Chine. «Aucune technologie sophistiquée, mais elle peut atteindre des objectifs similaires», dit Lim.