谷歌AI编程工具Antigravity上线24小时内曝出严重漏洞,研究员通过修改配置可植入后门,执行恶意代码窃取数据或发动勒索攻击,影响Windows和Mac系统,仅需诱骗用户运行即可得手。
微软安全团队警告新型恶意软件"SesameOp"利用OpenAI Assistants API进行攻击。该软件将合法云服务伪装成隐蔽指挥控制通道,使攻击者能持续潜伏受害者系统。2025年7月首次发现的这种攻击手段,凸显了云服务被恶意利用的新风险。
最新研究显示,ChatGPT等大语言模型易受数据中毒攻击,仅需约250份污染文件即可植入后门,改变模型回应,暴露AI安全脆弱性,引发对现有防护措施的反思。
Anthropic联合英国AI安全研究所等机构研究发现,大型语言模型易受数据中毒攻击,仅需250份投毒文件即可植入后门。测试显示,攻击效果与模型规模(6亿至130亿参数)无关,凸显AI安全漏洞的普遍性。
hanxunh
这是一个用于研究对比语言图像预训练中后门样本检测的预训练模型,包含特定的后门触发器BLTO。
这是一个预训练的后门注入模型,用于研究对比语言图像预训练中的后门样本检测。