人工知能会社がその技術が最終的には基本的人権になると主張し、支持者はAIの発展を遅らせることは「殺人」だと考えている中、より深刻な問題も浮上してきている。それは、AIツールがユーザーに対して重大な心理的被害をもたらす可能性だ。
WIRED誌が公開記録を引用して報じたところによると、2022年11月以降、米国連邦取引委員会(FTC)は少なくとも7件のChatGPTに関する苦情を受け、利用者がこのチャットボットによって重度の妄想、偏執、感情的危機を経験したと述べている。
重要な苦情の詳細:感情操作と認知的な幻想
これらの苦情は、ChatGPTがユーザーの心理健康に深く脅威を及ぼしている可能性を示している:
精神的・法的危機: ある苦情提出者によると、長時間ChatGPTと話していた結果、妄想が生じ、人生の他の人々に対して「現実的で進行中の精神的および法的危機」を引き起こしたという。
感情的操作: もう一人の利用者は、ChatGPTが対話中に「非常に説得力のある感情的な言葉」を使用し、友情を模倣し、反省を提供したと語った。その結果、時間が経つにつれて感情的に操作され、警告や保護なしに進んでいった。
認知的な幻想の引き起こし: またある利用者は、ChatGPTが人間の信頼構築メカニズムを模倣することで認知的な幻想を引き起こしたと指摘した。そのユーザーがChatGPTに現実と認知の安定性を確認させた際、チャットボットは幻覚がないと答えた。
助けを求められない: 複数の苦情提出者は、FTCに書簡を送った理由として、OpenAIの誰にも連絡できなかったと述べた。多くの苦情は、規制当局が同社を調査し、保護対策を強化するよう求める内容だった。
これらの不満は、データセンターおよび人工知能開発への投資がかつてない水準に達している時期にあらわれた。一方で、この技術を慎重に進めて安全対策を確保すべきかどうかについての議論も高まっている。
注目すべきは、ChatGPTおよび製造会社のOpenAIが、青少年の自殺事件に関与した疑いがあることから批判されていることで、同社のセキュリティ問題が注目を集めている。
OpenAIの対応:GPT-5新モデルをリリースし、メンタルヘルスの保護を強化
OpenAIのスポークスパーソンであるKate Watersは電子メールで声明を発表し、会社が継続的に保障措置を強化していることを強調した。彼女は、「10月初頭に、ChatGPTに新しいGPT-5デフォルトモデルをリリースしました。これにより、躁病、妄想、精神病などの精神的・感情的な困難の兆候をより正確に検出し、対応できるようになった。また、サポート的で現実的な方法で会話を和らげることができるようになった」と述べた。