尷尬!Meta 的 AI 安全系統被 “空格”攻擊輕鬆繞過
Meta 發佈的 Prompt-Guard-86M 模型旨在防禦提示注入攻擊,通過限制大型語言模型處理不當輸入,保護系統安全。然而,該模型自身也暴露出被攻擊的風險。Aman Priyanshu 研究發現,通過在輸入中添加空格等簡單字符間隔或去除標點符號,模型會忽視先前的安全指令,攻擊成功率接近100%。這一發現突顯了 AI 安全性的重要性,儘管 Prompt-Guard 只是防線的一部分,但它揭示了企業在使用 AI 時面臨的潛在威脅。Meta 正在積極尋找解決方案以增強模型的安全性。