最新研究显示,ChatGPT等大语言模型易受数据中毒攻击,仅需约250份污染文件即可植入后门,改变模型回应,暴露AI安全脆弱性,引发对现有防护措施的反思。
Anthropic联合英国AI安全研究所等机构研究发现,大型语言模型易受数据中毒攻击,仅需250份投毒文件即可植入后门。测试显示,攻击效果与模型规模(6亿至130亿参数)无关,凸显AI安全漏洞的普遍性。
研究表明,仅需250份投毒文件即可在大型语言模型中植入后门,且攻击效果与模型大小无关。测试涵盖6亿至130亿参数模型,发现即使使用更干净数据训练的大模型,所需中毒文档数量不变,挑战了传统认知。
苹果将推出企业AI管控工具,让IT管理员精确控制员工使用AI功能。新工具将在9月软件更新中推出,并提供配置OpenAI企业版ChatGPT的选项。OpenAI透露,ChatGPT企业版已拥有超500万商业用户,帮助企业将AI与内部数据无缝对接。
hanxunh
这是一个用于研究对比语言图像预训练中后门样本检测的预训练模型,包含特定的后门触发器BLTO。
这是一个预训练的后门注入模型,用于研究对比语言图像预训练中的后门样本检测。