En 2015, alarmée par l'escalade de la guerre civile au Yémen, l'Arabie saoudite a mené une campagne aérienne contre le pays pour vaincre ce qu'elle considérait comme une montée menaçante du pouvoir chiite. L'intervention, lancée avec huit autres États arabes en grande partie sunnites, ne devait durer que quelques semaines, ont indiqué des responsables saoudiens. Près de cinq ans plus tard, il ne s’est toujours pas arrêté.

Selon certaines estimations, la coalition a depuis effectué plus de 20 000 frappes aériennes, dont beaucoup ont tué des civils yéménites et détruit leurs biens, en violation présumée directe du droit international. Les organisations de défense des droits de l'homme ont depuis cherché à documenter ces crimes de guerre dans le but de les en empêcher par des contestations judiciaires. Mais l'étalon-or, la vérification sur le terrain par des journalistes et des militants, est souvent trop dangereux pour être possible. Au lieu de cela, les organisations se sont de plus en plus tournées vers des photos et vidéos mobiles externalisées pour comprendre le conflit, et ont commencé à les soumettre au tribunal pour compléter les preuves par témoins oculaires.

Mais comme la documentation numérique des scènes de guerre a proliféré, le temps qu'il faut pour l'analyser a explosé. Les images dérangeantes peuvent également traumatiser les enquêteurs qui doivent passer au peigne fin et regarder les images. Maintenant, une initiative qui va bientôt poser un défi dans le système judiciaire britannique teste une alternative d'apprentissage automatique. Il pourrait servir de modèle pour rendre les preuves externalisées plus accessibles et aider les organisations de défense des droits de l'homme à puiser dans des sources d'informations plus riches.

L'initiative, dirigée par l'Université de Swansea au Royaume-Uni avec un certain nombre de groupes de défense des droits de l'homme, fait partie d'un effort continu pour surveiller les crimes de guerre présumés qui se produisent au Yémen et créer une plus grande responsabilité juridique autour d'eux. En 2017, la plateforme Yemeni Archive a commencé à compiler une base de données de vidéos et de photos documentant les abus. Le contenu a été collecté à partir de milliers de sources – y compris des articles de journalistes et de civils, ainsi que des vidéos open source de plateformes de médias sociaux comme YouTube et Facebook – et conservé sur une blockchain afin qu'ils ne puissent pas être falsifiés sans être détectés.

En collaboration avec le Global Legal Action Network (GLAN), un organisme sans but lucratif qui poursuit les États pour violations des droits de l'homme, les enquêteurs ont ensuite commencé à rassembler des preuves de violations spécifiques des droits de l'homme dans une base de données distincte et à monter des affaires judiciaires dans divers tribunaux nationaux et internationaux. «Si les choses passent par les processus de responsabilisation des salles d'audience, il ne suffit pas de prouver que cela s'est produit», explique Yvonne McDermott Rees, professeur à l'Université de Swansea et responsable de l'initiative. «Vous devez dire:« Eh bien, c'est pourquoi c'est un crime de guerre. »Cela pourrait être« Vous avez utilisé une arme illégale »ou, dans le cas d'une frappe aérienne,« Cela visait des civils »ou« C'était une attaque disproportionnée. »

un rendu 3D d'un BLU-63
Un rendu 3D d'un BLU-63.
VFRAME

Dans ce cas, les partenaires se concentrent sur une arme à sous-munitions fabriquée au Royaume-Uni, la BLU-63. L'utilisation et la vente d'armes à sous-munitions, des armes explosives qui pulvérisent de plus petits explosifs à l'impact, sont interdites par 108 pays, dont le Royaume-Uni. Si les partenaires pouvaient prouver devant un tribunal britannique qu’ils avaient effectivement été utilisés pour commettre des crimes de guerre, cela pourrait être utilisé comme un moyen de faire cesser la vente d’armes du Royaume-Uni à l’Arabie saoudite ou de porter des accusations criminelles contre les personnes impliquées dans les ventes.

Ils ont donc décidé de développer un système d'apprentissage automatique pour détecter toutes les instances du BLU-63 dans la base de données. Mais les images de BLU-63 sont rares précisément parce qu'elles sont illégales, ce qui a laissé à l'équipe peu de données réelles pour entraîner son système. Pour y remédier, l'équipe a créé un ensemble de données synthétiques en reconstruisant des modèles 3D du BLU-63 dans une simulation.

En utilisant les quelques exemples antérieurs qu'ils avaient, y compris une photo de la munition conservée par l'Imperial War Museum, les partenaires ont travaillé avec Adam Harvey, un chercheur en vision par ordinateur, pour créer les reconstructions. À partir d'un modèle de base, Harvey a ajouté une texture photoréaliste, différents types de dommages et divers décalcomanies. Il a ensuite rendu les résultats dans diverses conditions d'éclairage et dans divers environnements pour créer des centaines d'images fixes imitant la façon dont les munitions pourraient être trouvées dans la nature. Il a également créé des données synthétiques de choses qui pourraient être confondues avec la munition, comme une balle de baseball verte, pour abaisser le taux de faux positifs.

Alors que Harvey est toujours en train de générer plus d'exemples de formation – il estime qu'il lui en faudra plus de 2000 – le système existant fonctionne déjà bien: plus de 90% des vidéos et des photos qu'il récupère de la base de données ont été vérifiées par des experts humains pour contenir BLU -63s. Il crée maintenant un ensemble de données de validation plus réaliste en imprimant en 3D et en peignant des modèles de munitions pour ressembler à la réalité, puis en les filmant et en les photographiant pour voir à quel point son système de détection fonctionne. Une fois le système entièrement testé, l'équipe prévoit de le faire parcourir l'intégralité des archives yéménites, qui contiennent 5,9 milliards d'images vidéo de séquences. Selon l’estimation de Harvey, une personne prendrait 2 750 jours 24 heures sur 24 pour parcourir ces informations. En revanche, le système d'apprentissage automatique prendrait environ 30 jours sur un ordinateur de bureau ordinaire.

Munitions BLU-63 éparpillées sur des rochers.
L'image réelle montrée dans l'analyse en haut de l'article.
VFRAME

Les experts humains devraient encore vérifier les images une fois que le système les a filtrées, mais le gain d'efficacité change la donne pour les organisations des droits de l'homme qui cherchent à monter des défis devant les tribunaux. Il n'est pas rare que ces organisations stockent des quantités massives de vidéos provenant de témoins oculaires. Amnesty International, par exemple, dispose de l'ordre de 1 téraoctet de séquences documentant des violations possibles au Myanmar, a déclaré McDermott Rees. Les techniques d'apprentissage automatique peuvent leur permettre de parcourir ces archives et de montrer le schéma des violations des droits de l'homme à une échelle auparavant impossible, ce qui rend beaucoup plus difficile pour les tribunaux de nier les preuves.

"Lorsque vous regardez, par exemple, le ciblage des hôpitaux, le fait d'avoir une vidéo qui montre un hôpital ciblé est fort; cela en fait un cas », explique Jeff Deutch, chercheur principal à Syrian Archive, qui a également lancé Yemeni Archive. «Mais si vous pouvez montrer des centaines de vidéos de centaines d'incidents d'hôpitaux ciblés, vous pouvez voir que c'est vraiment une stratégie délibérée de guerre. Lorsque les choses sont considérées comme délibérées, il devient plus possible d'identifier l'intention. Et l'intention pourrait être quelque chose d'utile pour les affaires judiciaires en termes de responsabilité pour les crimes de guerre. »

Alors que les collaborateurs du Yémen se préparent à soumettre leur cas, des preuves de cette ampleur seront particulièrement pertinentes. La coalition de frappes aériennes dirigée par l'Arabie saoudite a déjà nié la culpabilité dans des allégations antérieures de crimes de guerre, que le gouvernement britannique reconnaît comme étant le dossier officiel. Les tribunaux britanniques ont également rejeté une affaire antérieure soumise par GLAN pour empêcher le gouvernement de vendre des armes à l'Arabie saoudite, car elle jugeait les preuves vidéo open source insuffisamment convaincantes. Les collaborateurs espèrent que la plus grande richesse de preuves aboutira cette fois à des résultats différents. Des cas d'utilisation de vidéos open source dans un contexte syrien ont déjà abouti à des condamnations, a déclaré McDermott Rees.

Cette initiative n'est pas la première à utiliser l'apprentissage automatique pour filtrer les preuves dans un contexte de droits de l'homme. Le système E-Lamp de l'Université Carnegie Mellon, une boîte à outils d'analyse vidéo pour le travail sur les droits de l'homme, a été développé pour analyser les archives de la guerre en Syrie. Harvey a également travaillé avec certains de ses collaborateurs actuels pour identifier les munitions utilisées en Syrie. L'effort du Yémen sera cependant l'un des premiers à être impliqué dans une affaire judiciaire. Cela pourrait créer un précédent pour d'autres organisations de défense des droits de l'homme.

«Bien qu'il s'agisse d'un domaine émergent, c'est une formidable opportunité», a déclaré Sam Gregory, directeur de programme du groupe de travail sur les influences sociales et sociétales, Witness and cophair, du groupe de travail Partnership on AI sur les droits de l'homme. "(Il s'agit également) d'égaliser les règles du jeu en matière d'accès à l'IA et d'utilisation de l'IA afin de traduire en justice à la fois les preuves des témoins oculaires et les séquences filmées par les auteurs."

LAISSER UN COMMENTAIRE

Rédigez votre commentaire !
Entrez votre nom ici