Während der International Joint Conference on Artificial Intelligence (IJCAI) in Montreal, Kanada, organisierte Ant Digital zusammen mit der Agency for Science, Technology and Research (A*STAR) aus Singapur eine Workshop-Sitzung zum Thema „Deepfake-Erkennung, Lokalisierung und Erklärbarkeit“. Auf dem Workshop gaben Ant Digital und die Stanford University jeweils zwei große Deepfake-Datensätze frei, die verschiedene Modi wie menschliche Gesichts- und Bewegungsmanipulation sowie Sprachklonung abdecken. Diese Datensätze bieten wichtige Grundlagen für die Branche und fördern den Fortschritt der Sicherheitstechnologien im AI-Bereich.
Der Workshop konzentrierte sich auf die Richtung der Deepfake-Erkennung. Wissenschaftler und Experten aus renommierten Institutionen aus China, den USA, Australien, Brasilien, Singapur und anderen Ländern teilten ihre neuesten Technologien und Anwendungen.
Die von Ant Digital für den IJCAI "Deepfake-Erkennungswettbewerb" genutzte Trainingsdatenbank mit 1,8 Millionen Datensätzen (DDL-Datasets) wurde offiziell global für Forscher geöffnet. Dieser Datensatz umfasst drei kritische Szenarien: Gesichtsmanipulation, Videomanipulation und Sprachklonung, und beinhaltet über 80 verschiedene Manipulationsmethoden. Die Stellen und Zeiten, an denen KI-Fälschungen auftreten, sind klar markiert und helfen dabei, die Erklärbarkeit von Algorithmen zu verbessern. Forscher können diese Datenbank auf Modelscope (MoTao Community) herunterladen.
Abbildung: Li Jianshu, Leiter der internationalen Algorithmen bei Ant Digital, teilt das Deepfake-Lokalisierungs-Datenset
Der Video-Datensatz DeepAction, der gemeinsam von der Stanford University, Google und der University of California, Berkeley geöffnet wurde, enthält 2.600 Videos mit menschlichen Bewegungen, die von sieben großen Modellen generiert wurden, sowie entsprechende echte Szenen. Diese Videos zeigen alltägliche Handlungen wie Gehen, Laufen und Kochen. Forscher können diesen Datensatz auf Hugging Face (Hugging Face Community) herunterladen. Darüber hinaus erhielt die von der Forschungsgruppe veröffentlichte Arbeit „AI-generierte menschliche Bewegungen erkennen“ (Human Action CLIPs: Detecting AI-Generated Human Motion) den besten Paper-Preis des Workshops. In dieser Arbeit wurde eine Technik zur Unterscheidung von echten menschlichen Bewegungen und AI-generierten Bewegungen vorgestellt, die auf multimodaler semantischer Einbettung basiert. Diese Methode ist sehr robust und kann effektiv Störungen durch Datenmanipulation (wie Änderung der Auflösung, Komprimierung von Videos usw.) für Erkennungsalgorithmen abwehren.
Professor Abhinav Dhall von der Monash University in Australien teilte mit, dass sein Forschungsteam mithilfe von EEG-Daten entdeckt hat: Menschen unterschiedlicher kultureller Hintergründe haben unterschiedliche Wahrnehmungen von AI-Fälschungen. Wenn der Videoinhalt in einer Sprache vorliegt, die den Teilnehmern vertraut ist, und die Schauspieler aus ähnlichen ethnischen Hintergründen stammen, ist ihre Fähigkeit, echte Videos von Deepfakes zu unterscheiden, besser. Diese Forschung legt den Weg für zukünftige Untersuchungen im Bereich der Deepfake-Analyse in einem globalen, vielfältigen Umfeld.
Öffentliche Informationen zeigen, dass Ant Digital langfristig auf AI-Sicherheit und Risikoprävention achtet und kontinuierlich investiert. Das Sicherheitstechnologie-Brand ZOLOZ der Gruppe bietet seit 2017 digitale Modernisierungslösungen für ausländische Institutionen und ist bereits in über 25 Ländern und Regionen vertreten. Das Produkt „Echtpersonenverifikation“ hat eine Genauigkeit von 99,9 %.