Character.AI宣布重大政策调整,禁止18岁以下用户与AI进行开放式双向对话,以应对监管和家长对未成年人使用AI伴侣风险的担忧。新规将于11月25日生效,过渡期已开始实施。
AI聊天机器人平台Character.AI因卷入青少年自杀事件,宣布自11月25日起禁止18岁以下用户进行开放式对话。这一举措虽可能流失年轻用户,但被视为行业安全自救的关键,标志着AI从“朋友”向“工具”的紧急转型。
迪士尼向Character.AI发出律师函,要求下架米老鼠等角色,指控其侵犯版权。24小时内相关角色被清空,迪士尼强调对方蹭百年商誉构成侵权。
Character.AI平台收到迪士尼律师函后,已下架所有迪士尼角色。迪士尼指控其系统性复制、盈利并损害品牌价值。这家2021年成立的初创公司专注于AI角色聊天服务。
在Character.AI平台上进行多人AI角色群聊