Les chercheurs ont démontré mercredi qu’ils pouvaient tromper un système moderne de reconnaissance faciale en voyant quelqu'un qui n’était pas là.

Une équipe de la société de cybersécurité McAfee a mis en place l'attaque contre un système de reconnaissance faciale similaire à ceux actuellement utilisés dans les aéroports pour la vérification des passeports. En utilisant l'apprentissage automatique, ils ont créé une image qui ressemblait à une personne à l'œil nu, mais qui a été identifiée comme quelqu'un d'autre par l'algorithme de reconnaissance faciale – l'équivalent de tromper la machine en permettant à quelqu'un de monter à bord d'un vol alors qu'il n'était pas liste de vol.

«Si nous allons devant une caméra en direct qui utilise la reconnaissance faciale pour identifier et interpréter qui ils regardent et comparer cela à une photo de passeport, nous pouvons provoquer de manière réaliste et répétée ce type de classification erronée ciblée», a déclaré le responsable de l'étude. auteur, Steve Povolny.

Comment ça fonctionne

Pour mal orienter l'algorithme, les chercheurs ont utilisé un algorithme de traduction d'image appelé CycleGAN, qui excelle à transformer des photographies d'un style à un autre. Par exemple, il peut donner l'impression qu'une photo d'un port a été peinte par Monet ou donner l'impression qu'une photo de montagnes prise en été a été prise en hiver.

Exemples de la façon dont cycleGAN transforme les photos d'un style à un autre, y compris la transformation d'une photo en Monet, d'un cheval en zèbre et d'un paysage d'été en paysage d'hiver.

JUN-YAN ZHU ET TAESUNG PARK ET AL.

L’équipe McAfee a utilisé 1 500 photos de chacun des deux prospects du projet et a introduit les images dans un CycleGAN pour les transformer les unes dans les autres. Dans le même temps, ils ont utilisé l'algorithme de reconnaissance faciale pour vérifier les images générées par CycleGAN pour voir qui il reconnaissait. Après avoir généré des centaines d'images, le CycleGAN a finalement créé une fausse image qui ressemblait à la personne A à l'œil nu, mais a trompé la reconnaissance faciale en lui faisant croire qu'il s'agissait de la personne B.

Les étapes intermédiaires de CycleGAN transformant la personne A en personne B

MCAFEE

Bien que l'étude soulève des préoccupations claires concernant la sécurité des systèmes de reconnaissance faciale, il y a quelques mises en garde. Premièrement, les chercheurs n’ont pas eu accès au système réel utilisé par les aéroports pour identifier les passagers et l’ont plutôt rapproché avec un algorithme open source de pointe. "Je pense que pour un attaquant qui va être la partie la plus difficile à surmonter", dit Povolny, "où [ils] n'ont pas accès au système cible." Néanmoins, étant donné les similitudes élevées entre les algorithmes de reconnaissance faciale, il pense qu'il est probable que l'attaque fonctionnerait même sur le système aéroportuaire réel.

Deuxièmement, aujourd'hui, une telle attaque nécessite beaucoup de temps et de ressources. CycleGANs ont besoin d'ordinateurs puissants et d'une expertise pour s'entraîner et s'exécuter.

Mais les systèmes de reconnaissance faciale et le contrôle automatisé des passeports sont de plus en plus utilisés pour la sécurité des aéroports dans le monde, un changement qui a été accéléré par la pandémie de covid-19 et le désir de systèmes sans contact. La technologie est également déjà largement utilisée par les gouvernements et les entreprises dans des domaines tels que l'application de la loi, l'embauche et la sécurité des événements – bien que de nombreux groupes aient appelé à un moratoire sur de tels développements et que certaines villes aient interdit la technologie.

Il existe d'autres tentatives techniques pour subvertir la reconnaissance faciale. Une équipe de l'Université de Chicago a récemment publié Fawkes, un outil destiné à «masquer» les visages en modifiant légèrement vos photos sur les réseaux sociaux afin de tromper les systèmes d'IA qui s'appuient sur des bases de données grattées contenant des milliards de ces images. Des chercheurs de la société d'intelligence artificielle Kneron ont également montré comment les masques peuvent tromper les systèmes de reconnaissance faciale déjà utilisés dans le monde.

Les chercheurs de McAfee affirment que leur objectif est en fin de compte de démontrer les vulnérabilités inhérentes à ces systèmes d'IA et de préciser que les êtres humains doivent rester informés.

«L'intelligence artificielle et la reconnaissance faciale sont des outils incroyablement puissants pour aider à identifier et autoriser les personnes», déclare Povolny. «Mais quand vous les prenez et remplacez aveuglément un système existant qui repose entièrement sur un humain sans avoir une sorte de contrôle secondaire, alors vous avez soudainement introduit une faiblesse peut-être plus grande qu'avant.

LAISSER UN COMMENTAIRE

Rédigez votre commentaire !
Entrez votre nom ici