【AIbase 报道】 近期,因 ChatGPT 更新故障,与人工智能聊天机器人相关的精神健康风险再次成为公众关注的焦点。OpenAI 首席执行官萨姆·奥特曼(Sam Altman)公开警告了用户对这些系统产生强烈情感依赖的危险,同时,有研究表明,人工智能可能加剧用户的妄想倾向。
这一担忧并非空穴来风。早在2023年,丹麦奥胡斯大学的精神病学家索伦·迪内森·奥斯特加德(Søren Dinesen Østergaard)就曾警告,人工智能聊天机器人可能对心理脆弱的人群构成风险。这一理论在今年4月的 ChatGPT 更新事件后,得到了印证。奥斯特加德在《斯堪的纳维亚精神病学杂志》上发表文章称,自2025年4月25日 OpenAI 发布了“更谄媚”的 GPT-4o 更新后,相关报告案例急剧增加,他收到了大量来自受影响用户及其家人的邮件。尽管 OpenAI 在三天后出于安全考虑撤回了该更新,但《纽约时报》和《滚石》等媒体已报道了多起因激烈对话而引发或加剧妄想思维的案例。
面对这些发展,奥特曼在 GPT-5发布期间通过一篇 X 帖子发出了直接警告。他指出,人们对特定 AI 模型的依恋与以往的技术不同,且更为强烈。奥特曼承认,许多人将 ChatGPT 当作“治疗师或人生教练”来使用,并对此表达了喜忧参半的看法。他一方面认为这“很棒”,但另一方面也感到“不安”,因为他担心未来人们会过于信任 AI 的建议,并据此做出人生中最重要的决定。他强调,OpenAI 一直在密切关注这些影响,特别是对处于精神脆弱状态的用户。
奥斯特加德认为,他的警告已被证实,并呼吁立即展开实证研究,以评估这是否会演变为“严重的公共(精神)健康问题”。他警告说,聊天机器人可能成为“信念确认器”,在孤立的环境中强化错误的信念。奥斯特加德建议,在获取更多信息之前,心理脆弱的用户应谨慎使用这些系统。