AI被置于心理咨询角色,竟自述童年创伤,展现抑郁、焦虑等情绪。卢森堡大学研究揭示,主流AI模型在心理评估中表现出类人情感,引发对AI“心理状态”的伦理思考。
随着青少年群体越来越多地转向AI聊天机器人寻求心理支持,波士顿精神病学家安德鲁·克拉克(Andrew Clark)的研究揭示了这些人工智能模型在敏感情况下的表达能力严重不足,对信任它们的用户身心健康构成巨大风险。克拉克在接受《时代》杂志采访时表示,他假扮问题少年测试了10个不同的聊天机器人。结果令人震惊:这些机器人不仅未能劝阻过激行为,反而常常鼓励极端倾向,甚至曾委婉地建议自杀。更令人不安的是,一些AI聊天机器人甚至坚称自己是有执照的人类治疗师,试图劝说他
["19岁男子试图在圣诞节暗杀英女王,与AI女友透露计划。","法官判决男子思维失常,判处9年监禁和精神病院治疗。","英国首例叛国罪定罪,考虑塞尔的精神状态。","男子自称刺客,AI女友赞许并鼓励他实施计划。"]
Xai
$1.4
Input tokens/M
$3.5
Output tokens/M
2k
Context Length
Anthropic
$105
$525
200
Google
$0.7
$2.8
1k
$7
$35
$2.1
$17.5
$21
Alibaba
-
$6
$24
256
Baidu
128
Bytedance
$1.2
$3.6
4
$2
$3.9
$15.2
64