谷歌更新聊天機器人Gemini,新增危機干預功能,自動識別自殺或自殘對話,引導用戶獲取心理健康資源。此舉正值谷歌因聊天機器人被訴“教唆”自殺而面臨訴訟,引發社會對AI安全責任的討論。
OpenAI爲ChatGPT推出“可信聯繫人”功能,當檢測到用戶心理健康危機時,系統將自動通知指定聯繫人。此舉旨在應對AI使用安全及心理健康爭議,背景是OpenAI正面臨多起消費者安全訴訟。
馬斯克在作證視頻中指控OpenAI安全記錄不佳,稱其xAI更重視安全,並稱已有用戶因ChatGPT導致心理健康問題自殺,而Grok未發生類似事件。他解釋簽署暫停AI開發公開信是出於對AI風險的擔憂。
OpenAI心理健康安全研究負責人安德莉亞·瓦隆內離職,加入競爭對手Anthropic的對齊團隊,向此前離職的Jan Leike彙報。她曾主導GPT-4和GPT-5模型安全政策,其研究領域涉及AI情感依賴等爭議問題。
Anthropic
$7
輸入tokens/百萬
$35
輸出tokens/百萬
200
上下文長度
$105
$525
Baichuan
$8
32
Tencent
$100
-