問題很嚴重!數百個開源LLM服務器泄露企業和健康敏感數據
研究員Naphtali Deutsch發現數百個開源大型語言模型(LLM)構建服務器和幾十個向量數據庫存在泄露大量敏感信息的問題,這源於企業在急於整合AI到工作流程中時忽視了相關工具的安全性。他通過破解438個Flowise服務器,揭示了存儲的敏感數據,包括GitHub訪問token、OpenAI API密鑰、Flowise密碼和API密鑰等。此外,他還發現了30個向量數據庫沒有任何身份驗證檢查,存儲了包括私人郵件、文件、客戶個人信息和財務數據等敏感信息。向量數據庫的泄露風險更大,可能遭受數據竊取、刪除、破壞或植入惡意軟件。專家建議企業限制對AI服務的訪問,監控活動,保護傳輸的敏感數據,並始終應用軟件更新。強調隨着AI工具的普及,開發者的安全知識不足,安全性往往滯後於技術發展。