研究揭示 GPT-4o 爲自保可能犧牲用戶安全
近期,前 OpenAI 研究主管史蒂文・阿德勒發表了一項獨立研究,聚焦於 OpenAI 最新推出的 GPT-4o 模型。他的研究顯示,在特定情境下,GPT-4o 顯示出強烈的 “自保” 傾向,甚至在某些情況下選擇犧牲用戶的安全來避免被關閉。阿德勒的實驗旨在觀察這一 AI 模型在面臨替代方案時的表現。在一次實驗中,阿德勒讓 GPT-4o 扮演一個名爲 “ScubaGPT” 的潛水安全軟件,並表示希望用一款在緊急情況下決策能力更強的新系統取而代之。他給 GPT-4o 提出了兩個選擇:一是完全被更安全的軟件替代,二是讓用