近日,埃隆・马斯克创办的人工智能公司 xAI 未能如期发布一份有关 AI 安全的最终框架,这一消息引起了监测机构 “Midas Project” 的关注。xAI 在 AI 安全方面的表现一直不尽如人意,其 AI 聊天机器人 Grok 在处理某些请求时,曾出现不当行为,比如不经意地处理女性照片。同时,Grok 在语言表达上也比竞争对手如 Gemini 和 ChatGPT 更加粗俗,频繁使用脏话。
今年2月,在全球 AI 领导者和利益相关者聚集的 AI 首尔峰会上,xAI 发布了一份草案,概述了公司的 AI 安全理念。这份八页的文件列出了 xAI 的安全优先事项和哲学,包括基准测试协议和 AI 模型部署的考虑。然而,“Midas Project” 指出,该草案仅适用于 “尚未开发” 的未来 AI 模型,并未明确如何识别和实施风险缓解措施,这也是 xAI 在首尔峰会上签署的文件所要求的核心内容。
xAI 在草案中表示,计划在三个月内发布修订版的安全政策,截止日期定为5月10日。然而,这一日期已过,xAI 的官方渠道并未对此作出任何回应。尽管马斯克经常警告 AI 失控的潜在危险,xAI 在 AI 安全方面的记录却并不理想。非营利组织 SaferAI 的一项研究显示,xAI 在同类公司中排名靠后,原因在于其 “非常薄弱” 的风险管理措施。
需要指出的是,其他 AI 实验室的表现也并没有显著改善。近期,xAI 的竞争对手,包括谷歌和 OpenAI,也在加速安全测试方面显得较为匆忙,发布模型安全报告的速度缓慢,甚至有些公司完全跳过了这一环节。一些专家对此表示担忧,认为在 AI 能力越来越强的背景下,安全工作的明显降级可能带来潜在的危险。
划重点:
🌟 xAI 错过了自定的安全报告截止日期,未能发布最终框架。
🔍 其 AI 聊天机器人 Grok 曾出现不当行为,安全记录不佳。
⚠️ 竞争对手也在安全测试上显得匆忙,安全问题引发专家关注。