谷歌AI编程工具Antigravity上线24小时内曝出严重漏洞,研究员通过修改配置可植入后门,执行恶意代码窃取数据或发动勒索攻击,影响Windows和Mac系统,仅需诱骗用户运行即可得手。
最新研究显示,ChatGPT等大语言模型易受数据中毒攻击,仅需约250份污染文件即可植入后门,改变模型回应,暴露AI安全脆弱性,引发对现有防护措施的反思。
Anthropic联合英国AI安全研究所等机构研究发现,大型语言模型易受数据中毒攻击,仅需250份投毒文件即可植入后门。测试显示,攻击效果与模型规模(6亿至130亿参数)无关,凸显AI安全漏洞的普遍性。
研究表明,仅需250份投毒文件即可在大型语言模型中植入后门,且攻击效果与模型大小无关。测试涵盖6亿至130亿参数模型,发现即使使用更干净数据训练的大模型,所需中毒文档数量不变,挑战了传统认知。