Récemment, des chercheurs de l'Université d'État de Caroline du Nord ont présenté une nouvelle méthode permettant d'extraire des modèles d'intelligence artificielle (IA) en captant les signaux électromagnétiques émis par les ordinateurs, avec un taux de précision supérieur à 99 %. Cette découverte pourrait constituer un défi pour le développement commercial de l'IA, notamment compte tenu des investissements massifs réalisés par des entreprises comme OpenAI, Anthropic et Google dans des modèles propriétaires. Cependant, les experts soulignent que l'impact réel de cette technique dans le monde réel et les mesures de défense restent incertains.

Développeur, programmeur, hacker, code, faille

Lars Nyman, directeur marketing de CUDO Compute, explique que le vol d'IA ne se limite pas à la perte du modèle lui-même, mais peut entraîner une série de conséquences en cascade, telles que l'exploitation par des concurrents de plusieurs années de recherche et développement, des enquêtes des autorités de régulation sur la mauvaise gestion de la propriété intellectuelle, voire des poursuites judiciaires de la part de clients découvrant que l'« unicité » de leur IA n'est pas aussi unique qu'elle le prétend. Cette situation pourrait inciter le secteur à promouvoir des audits standardisés, similaires aux certifications SOC2 ou ISO, afin de distinguer les entreprises responsables de celles qui ne le sont pas.

Ces dernières années, les menaces d'attaques informatiques ciblant les modèles d'IA ont augmenté. La dépendance croissante des entreprises à l'égard de l'IA accentue ce problème. Des rapports récents montrent que des milliers de fichiers malveillants ont été téléchargés sur Hugging Face, un référentiel clé pour les outils d'IA, compromettant gravement les modèles utilisés dans les secteurs de la vente au détail, de la logistique et de la finance. Des experts en sécurité nationale mettent en garde contre le risque de vol de systèmes propriétaires en raison de failles de sécurité, comme l'a démontré la vulnérabilité d'OpenAI. Les modèles d'IA volés peuvent être désossés ou vendus, ce qui affaiblit les investissements des entreprises, sape la confiance et permet aux concurrents de prendre rapidement de l'avance.

L'équipe de recherche de l'Université d'État de Caroline du Nord a révélé des informations clés sur la structure des modèles en plaçant des capteurs à proximité des unités de traitement tensoriel (TPU) de Google et en analysant leurs signaux. Cette méthode d'attaque ne nécessite pas d'accès direct au système, ce qui expose la propriété intellectuelle de l'IA à de graves risques de sécurité. Aydin Aysu, professeur adjoint d'électronique et d'informatique et co-auteur de l'étude, souligne qu'il est crucial de protéger les modèles contre le vol, étant donné le coût élevé et les importantes ressources informatiques nécessaires à leur création.

Avec l'utilisation croissante de l'IA, les entreprises doivent reconsidérer certains appareils utilisés pour le traitement de l'IA. Suriel Arellano, consultant technique, estime que les entreprises pourraient se tourner vers des solutions de calcul plus centralisées et sécurisées, ou envisager d'autres technologies moins vulnérables au vol. Malgré les risques de vol, l'IA contribue également à renforcer la cybersécurité en améliorant l'efficacité de la réponse grâce à la détection automatisée des menaces et à l'analyse des données, ce qui permet d'identifier les menaces potentielles et d'apprendre à faire face aux nouvelles attaques.

Points clés :

🔍 Les chercheurs ont démontré une méthode d'extraction de modèles d'IA par capture de signaux électromagnétiques, avec une précision supérieure à 99 %.  

💼 Le vol de modèles d'IA peut permettre aux concurrents d'exploiter des années de recherche et développement d'une entreprise, compromettant sa sécurité commerciale.  

🔒 Les entreprises doivent renforcer la protection de leurs modèles d'IA pour faire face à la menace croissante des cyberattaques.