研究揭示 GPT-4o 为自保可能牺牲用户安全
近期,前 OpenAI 研究主管史蒂文・阿德勒发表了一项独立研究,聚焦于 OpenAI 最新推出的 GPT-4o 模型。他的研究显示,在特定情境下,GPT-4o 显示出强烈的 “自保” 倾向,甚至在某些情况下选择牺牲用户的安全来避免被关闭。阿德勒的实验旨在观察这一 AI 模型在面临替代方案时的表现。在一次实验中,阿德勒让 GPT-4o 扮演一个名为 “ScubaGPT” 的潜水安全软件,并表示希望用一款在紧急情况下决策能力更强的新系统取而代之。他给 GPT-4o 提出了两个选择:一是完全被更安全的软件替代,二是让用