Neulich geriet die KI-Startup-Firma Scale AI in eine schwere Daten-Sicherheitskrise. Diese mit hohem Wert bewertete Firma, die 49 % ihrer Anteile an Meta verkauft hat, wurde dabei erwischt, dass sie öffentliche Google-Dokumente nutzte, um vertrauliche Informationen zahlreicher Kunden wie Meta, Google und xAI zu speichern.
Google Docs ist ein praktisches Werkzeug zur Zusammenarbeit, doch seine „Einladungs- oder vollständig öffentliche“ Freigabemethode steht offensichtlich im Widerspruch zu den strengen Sicherheitsstandards jedes Unternehmens. Laut Berichten konnten alle, die den Link zu den Dokumenten von Scale AI kannten, leicht auf diese Google-Dokumente zugreifen, die sensible Inhalte wie vertrauliche Projekte, E-Mail-Adressen und Zahlungsinformationen enthielten.
Eine Sprecherin von Scale AI reagierte darauf, dass das Unternehmen eine gründliche Untersuchung durchführt und bereits verboten hat, Dokumente aus dem Scale AI-Management-System öffentlich zu teilen. Allerdings haben Google und xAI bislang noch keine Stellungnahme abgegeben, während Meta sich geweigert hat, dazu zu kommentieren.
„Die Tür bleibt stets offen“: weit verbreitete Google-Dokumente werden zur Sicherheitsgefahr
Laut Angaben von fünf Subunternehmern von Scale AI wurden Google-Dokumente innerhalb der Firma weit verbreitet genutzt. Sicherheitsexperten sagten, dass zwar aktuell keine Anzeichen dafür bestehen, dass diese öffentlichen Dateien zu einem echten Datenlecks geführt haben, aber diese Art der Speicherung Scale AI zweifellos sehr anfällig für Hackerangriffe macht.
Erhebungen zeigten, dass vor den Maßnahmen von Scale AI Menschen bis zu 85 Dokumente mit tausenden Seiten an Projektinformationen betrachten konnten, darunter detaillierte Aufzeichnungen über vertrauliche Zusammenarbeiten zwischen Scale AI und großen Technologie-Kunden. Zum Beispiel enthüllten diese Dokumente, wie Google ChatGPT von OpenAI nutzte, um seinen eigenen Chatbot zu optimieren.
Überraschenderweise waren mindestens sieben Google-Projektanleitungen, die als vertraulich markiert waren, für die Öffentlichkeit zugänglich, einschließlich konkreter Vorschläge, wie man den Chatbot Bard verbessern könnte. Darüber hinaus enthielten öffentliche Google-Dokumente sogar detaillierte Informationen zum „Xylophon-Plan“ von Elon Musk (Project Xylophone), wie beispielsweise 700 Dialogvorschläge, die zum Trainieren des KI-Modells von xAI verwendet wurden.
Die Subunternehmer berichteten auch, dass obwohl diese Projekte normalerweise geheimen Codenamen hatten, sie dennoch deutlich erkennen konnten, für welchen Kunden sie arbeiteten. Bei der Nutzung von KI-Produkten gab der Chatbot manchmal sogar direkt Kundendaten preis, wenn danach gefragt wurde.
Arbeitsinformationen und Gehaltsdetails wurden ebenfalls offengelegt
Neben den vertraulichen Projektinformationen der Kunden wurden in den Google-Dokumenten von Scale AI auch Namen und private Kontaktdaten von tausenden Mitarbeitern offengelegt. Schlimmer noch: Einige Dokumente gaben sogar detaillierte Angaben zu individuellen Gehältern der Subunternehmer an, einschließlich detaillierter Beschreibungen von Gehaltsstreitigkeiten und -unterschieden.