Selon un nouveau rapport, des milliers d'images d'abus sexuels sur des enfants se cachent dans les bases de données des générateurs d'images IA. Ce rapport exhorte les entreprises à agir pour corriger les failles technologiques. Ces images facilitent la génération d'images falsifiées réalistes d'enfants par les systèmes d'IA, et permettent de transformer des photos de jeunes adolescents habillés sur les réseaux sociaux en images de nus.
Il n'existe pas de solution simple à ce problème ; les entreprises doivent prendre des mesures pour combler les failles technologiques. Selon le rapport, cela soulève des inquiétudes quant aux risques potentiels liés aux générateurs d'images IA.