Récemment, l'entreprise de technologie d'intelligence artificielle Scale AI a été impliquée dans un grave incident de sécurité des données. Cette entreprise, valorisée à plusieurs milliards de dollars et achetée à 49 % par Meta pour 14,8 milliards de dollars, a été accusée d'utiliser des documents Google publics pour stocker des informations sensibles de nombreux clients, notamment Meta, Google et xAI.
Google Docs est un outil collaboratif pratique, mais sa méthode de partage « inviter ou totalement publique » ne correspond clairement pas aux normes strictes de sécurité d'une entreprise. Selon les rapports, toute personne connaissant le lien des documents de Scale AI pouvait facilement accéder à ces documents Google contenant des informations sensibles comme des projets secrets, des adresses e-mail et des informations de paiement.
Un porte-parole de Scale AI a déclaré que l'entreprise menait une enquête approfondie et avait interdit tout partage public des documents du système Scale AI. Cependant, Google et xAI n'ont pas encore commenté cette affaire, tandis que Meta a choisi de rester silencieuse.
« La porte est toujours ouverte » : Google Docs, un outil largement utilisé, devient une menace pour la sécurité
D'après cinq fournisseurs de Scale AI, Google Docs était largement utilisé au sein de l'entreprise. Des experts en cybersécurité soulignent que, bien qu'il n'y ait actuellement aucun signe indiquant que ces fichiers publics aient entraîné une fuite de données réelle, ce mode de stockage rend clairement Scale AI très vulnérable aux attaques de pirates informatiques.
Une enquête a révélé qu'avant que Scale AI n'ait pris des mesures, on pouvait consulter jusqu'à 85 dossiers, soit des milliers de pages d'informations sur des projets, qui détaillaient les collaborations sensibles entre Scale AI et ses grands clients technologiques. Par exemple, ces documents révélaient comment Google utilisait ChatGPT d'OpenAI pour affiner son propre chatbot.
Plus choquant encore, au moins sept manuels de projets Google marqués comme confidentiels étaient accessibles au public, y compris des conseils précis sur l'amélioration de leur chatbot Bard. De plus, certains documents Google publics contenaient même des détails sur le projet « Xylophone » d'Elon Musk, comme les 700 prompts de conversation utilisés pour former le modèle d'intelligence artificielle d'xAI.
Les fournisseurs ont également révélé que, malgré les codes secrets habituels de ces projets, ils pouvaient clairement identifier pour quel client ils travaillaient. Lorsque l'on utilisait les produits d'intelligence artificielle, parfois les chatbots révélaient directement des informations sur les clients lorsqu'ils étaient interrogés.
Les informations personnelles des employés et les détails sur les salaires sont également exposées
Hors des informations sensibles des clients, les documents Google de Scale AI révélaient clairement les noms et coordonnées privées de milliers d'employés de l'entreprise. Même pire, certains fichiers détaillaient les montants des salaires des contractuels individuels, y compris des explications détaillées sur les différends et les écarts salariaux.