北韩黑客组织Konni利用AI辅助开发恶意软件,针对亚太区块链开发人员发起攻击。其PowerShell后门脚本展现出明显的大语言模型生成特征,代码布局与传统人工编写的混乱脚本不同,显示出深度伪装能力。
谷歌AI编程工具Antigravity上线24小时内曝出严重漏洞,研究员通过修改配置可植入后门,执行恶意代码窃取数据或发动勒索攻击,影响Windows和Mac系统,仅需诱骗用户运行即可得手。
最新研究显示,ChatGPT等大语言模型易受数据中毒攻击,仅需约250份污染文件即可植入后门,改变模型回应,暴露AI安全脆弱性,引发对现有防护措施的反思。
Anthropic联合英国AI安全研究所等机构研究发现,大型语言模型易受数据中毒攻击,仅需250份投毒文件即可植入后门。测试显示,攻击效果与模型规模(6亿至130亿参数)无关,凸显AI安全漏洞的普遍性。