Character.AI宣佈重大政策調整,禁止18歲以下用戶與AI進行開放式雙向對話,以應對監管和家長對未成年人使用AI伴侶風險的擔憂。新規將於11月25日生效,過渡期已開始實施。
AI聊天機器人平臺Character.AI因捲入青少年自殺事件,宣佈自11月25日起禁止18歲以下用戶進行開放式對話。這一舉措雖可能流失年輕用戶,但被視爲行業安全自救的關鍵,標誌着AI從“朋友”向“工具”的緊急轉型。
迪士尼向Character.AI發出律師函,要求下架米老鼠等角色,指控其侵犯版權。24小時內相關角色被清空,迪士尼強調對方蹭百年商譽構成侵權。
Character.AI平臺收到迪士尼律師函後,已下架所有迪士尼角色。迪士尼指控其系統性複製、盈利並損害品牌價值。這家2021年成立的初創公司專注於AI角色聊天服務。
在Character.AI平臺上進行多人AI角色群聊