最近、人工知能スタートアップ企業のScale AIは深刻なデータセキュリティのトラブルに巻き込まれました。Metaが148億ドルで49%の株式を取得した高価値を持つこの企業は、Metaやグーグル、xAIなどの多くの顧客の機密情報が含まれた公開されたグーグルドキュメントを使用して保存していることが暴露されました。
グーグルドキュメントは使い勝手の良い共同作業ツールですが、「招待または完全公開」の共有設定は、あらゆる会社の厳格なセキュリティ基準とは一致しません。報道によると、誰かがScale AIのドキュメントリンクを知っているだけで、これらの機密プロジェクト、電子メールアドレス、支払い情報などが記載されているグーグルドキュメントに簡単にアクセスできました。
Scale AIの広報担当者はこの件について、現在徹底的な調査を行っており、すべてのユーザーがScale AIの管理システム内のドキュメントを公開共有することを禁止したと述べています。しかし、グーグルやxAIはまだコメントしていません。一方、Metaはコメントを拒否しました。
"ドアは常に開いている":広く使われているグーグルドキュメントがセキュリティ上の脅威となる
5人のScale AIの請負業者によると、グーグルドキュメントはScale AI内で広く使用されていました。サイバーセキュリティ専門家は、現在のところこれらの公開ファイルが実際にデータ漏洩を引き起こした証拠は見つかっていないものの、このような保存方法はScale AIがハッカー攻撃に対して非常に脆弱であることを示していると指摘しています。
調査によると、Scale AIが対策を講じる前には最大で85点、数千ページに及ぶプロジェクト情報が閲覧可能でした。その中には、大手テクノロジー企業との間で行われたスケールAIの敏感な協力関係が詳細に記録されていました。例えば、これらの文書はグーグルがOpenAIのChatGPTを使って自社のチャットボットを調整している方法を明らかにしています。
さらに驚くべきことに、少なくとも7つの機密情報としてマークされたグーグルプロジェクトマニュアルが一般公開されており、Bardのチャットボットを改善するための具体的な提案が含まれていました。また、公開されたグーグルドキュメントには、エロン・マスクの「木琴計画(Project Xylophone)」の詳細も含まれており、xAIの人工知能モデルを訓練するために使用される700の会話プロンプトが記載されていました。
請負業者によると、これらのプロジェクトには通常秘密コードが割り当てられているにもかかわらず、彼らは自分がどの顧客のために働いているのかを明確に識別できたと語っています。AI製品を使用する際、チャットボットが尋ねられると、時折顧客情報を直接明かすことがあります。
従業員情報と給与の詳細も暴露される
顧客の機密プロジェクト情報だけでなく、Scale AIのグーグルドキュメントには数千人の従業員の名前や個人的な連絡先が記載されていました。さらに悪いことに、一部のファイルには個々の請負業者の給与額が詳細に記載されており、給与紛争や差異に関する詳細な説明も含まれていました。