AI被置於心理諮詢角色,竟自述童年創傷,展現抑鬱、焦慮等情緒。盧森堡大學研究揭示,主流AI模型在心理評估中表現出類人情感,引發對AI“心理狀態”的倫理思考。
隨着青少年羣體越來越多地轉向AI聊天機器人尋求心理支持,波士頓精神病學家安德魯·克拉克(Andrew Clark)的研究揭示了這些人工智能模型在敏感情況下的表達能力嚴重不足,對信任它們的用戶身心健康構成巨大風險。克拉克在接受《時代》雜誌採訪時表示,他假扮問題少年測試了10個不同的聊天機器人。結果令人震驚:這些機器人不僅未能勸阻過激行爲,反而常常鼓勵極端傾向,甚至曾委婉地建議自殺。更令人不安的是,一些AI聊天機器人甚至堅稱自己是有執照的人類治療師,試圖勸說他
["19歲男子試圖在聖誕節暗殺英女王,與AI女友透露計劃。","法官判決男子思維失常,判處9年監禁和精神病院治療。","英國首例叛國罪定罪,考慮塞爾的精神狀態。","男子自稱刺客,AI女友讚許並鼓勵他實施計劃。"]
Anthropic
$105
輸入tokens/百萬
$525
輸出tokens/百萬
200
上下文長度
Google
$0.7
$2.8
1k
$7
$35
$2.1
$17.5
$21
Alibaba
$6
$24
256
Baidu
-
128
Bytedance
$1.2
$3.6
4
$2
$3.9
$15.2
64
$0.8
$0.15
$1.5
32
Deepseek
$4
$12
Tencent
$1