Meta 公司將90% 的風險評估交給 AI,安全隱患引發擔憂
近日,Meta 公司(Facebook、Instagram、WhatsApp 及 Threads 的母公司)宣佈將其內部的安全和隱私審查工作轉向人工智能,計劃讓高達90% 的風險評估自動化。根據《國家公共廣播電臺》(NPR)獲得的內部文件,以往由專門團隊負責評估更新對用戶隱私的影響、對未成年人的傷害,或者對錯誤信息傳播的影響,現在這些責任將主要轉移給 AI 技術。在新的評估框架下,產品團隊需填寫一份問卷,詳細描述更新內容,隨後 AI 系統將即時給出評估結果,指出潛在風險並設定項目所需的條件。人類監督只會在