Récemment, lors de la Conférence internationale sur l'intelligence artificielle (IJCAI) qui s'est tenue à Montréal au Canada, Ant Group a organisé en collaboration avec l'Agence pour la recherche scientifique et technologique de Singapour un atelier sur la détection, la localisation et l'explicabilité des fausses profondeurs. Lors de cette réunion, Ant Group et l'Université de Stanford ont ouvert librement deux grands jeux de données sur les fausses profondeurs, couvrant divers modes tels que les falsifications faciales et gestuelles, ainsi que le clonage vocal, offrant ainsi des ressources critiques pour l'industrie et favorisant le développement des technologies de sécurité de l'IA.
Cet atelier portait sur la détection des fausses profondeurs. Des chercheurs et experts du secteur provenant de nombreux pays, comme la Chine, les États-Unis, l'Australie, le Brésil et Singapour, ont partagé leurs avancées techniques et résultats d'applications.
Le jeu de données de formation de 1,8 million de données utilisé par Ant Group pour le concours de détection des fausses profondeurs de IJCAI (DDL-Datasets) a été officiellement ouvert aux chercheurs du monde entier. Ce jeu de données comprend trois scénarios à risque élevé : les falsifications faciales, les modifications vidéo et le clonage vocal, couvrant plus de 80 méthodes de falsification, avec une indication claire des positions des images falsifiées et des points temporels, ce qui aide à améliorer l'explicabilité des algorithmes. Les chercheurs peuvent télécharger ce jeu de données sur Modelscope (la communauté MoTao).
Figure : Li Jianshu, responsable international des algorithmes d'Ant Group, présente le jeu de données sur la localisation des fausses profondeurs
Le jeu de données vidéo DeepAction, ouvert librement par l'Université de Stanford, Google et l'Université de Berkeley en Californie, contient 2 600 vidéos d'actions humaines générées par sept modèles de grande taille ainsi que des images correspondantes authentiques. Ces vidéos montrent des comportements quotidiens tels que marcher, courir et cuisiner. Les chercheurs peuvent télécharger ce jeu de données sur Hugging Face (la communauté HuGuFa).
De plus, l'article publié par l'équipe de recherche intitulé « Détecter les mouvements humains générés par l'IA » (Human Action CLIPs: Detecting AI-Generated Human Motion) a reçu le prix du meilleur article lors de ce workshop. Cet article propose une technique d'identification basée sur l'embedding sémantique multimodal, capable de distinguer précisément les mouvements humains authentiques des mouvements générés par l'IA. Cette méthode est très robuste et peut efficacement résister aux interférences des méthodes de falsification des données (comme l'ajustement de la résolution ou la compression vidéo) sur les algorithmes de détection.
Le professeur Abhinav Dhall de l'Université de Monash en Australie a partagé les résultats de son équipe de recherche : grâce aux données d'électroencéphalogrammes, il a découvert que les personnes de différents contextes culturels perçoivent différemment les vidéos falsifiées par l'IA. Lorsque la langue de la vidéo est l'anglais, qui est familier aux participants, et que les acteurs proviennent de contextes raciaux similaires, leur capacité à distinguer les vidéos authentiques des vidéos falsifiées est meilleure. Cette étude pave la voie pour l'exploration future dans le domaine de l'analyse des fausses profondeurs dans un contexte global multiculturel.
Les informations publiques indiquent qu'Ant Group suit depuis longtemps l'IA sécurisée et les risques liés, et investit continuellement dans la prévention des risques. Le marque de technologie de sécurité ZOLOZ, appartenant à Ant Group, a servi à la numérisation des institutions étrangères depuis 2017 et couvre désormais plus de 25 pays et régions. Le produit « Vérification de l'identité réelle » atteint une précision de 99,9 %.