AIBase
首页
AI资讯
AI产品库
模型广场
MCP服务
AI服务
算力市场
AI应用指南
ZH

AI资讯

查看更多

谷歌新 AI 编程工具 “Antigravity” 上线24小时后被曝重大安全漏洞

谷歌AI编程工具Antigravity上线24小时内曝出严重漏洞,研究员通过修改配置可植入后门,执行恶意代码窃取数据或发动勒索攻击,影响Windows和Mac系统,仅需诱骗用户运行即可得手。

14.9k 11 小时前
谷歌新 AI 编程工具 “Antigravity” 上线24小时后被曝重大安全漏洞

仅需250份文件!AI模型也能被 “洗脑” 的惊人发现

最新研究显示,ChatGPT等大语言模型易受数据中毒攻击,仅需约250份污染文件即可植入后门,改变模型回应,暴露AI安全脆弱性,引发对现有防护措施的反思。

9.7k 11-30
仅需250份文件!AI模型也能被 “洗脑” 的惊人发现

​Anthropic研究:仅需 250 份中毒文件即可轻易攻破大型 AI 模型

Anthropic联合英国AI安全研究所等机构研究发现,大型语言模型易受数据中毒攻击,仅需250份投毒文件即可植入后门。测试显示,攻击效果与模型规模(6亿至130亿参数)无关,凸显AI安全漏洞的普遍性。

7.7k 6 天前
​Anthropic研究:仅需 250 份中毒文件即可轻易攻破大型 AI 模型

Anthropic 突破性发现:仅250份中毒文件即可攻破大型 AI 模型

研究表明,仅需250份投毒文件即可在大型语言模型中植入后门,且攻击效果与模型大小无关。测试涵盖6亿至130亿参数模型,发现即使使用更干净数据训练的大模型,所需中毒文档数量不变,挑战了传统认知。

10k 12 小时前
Anthropic 突破性发现:仅250份中毒文件即可攻破大型 AI 模型
AIBase
智启未来,您的人工智能解决方案智库
English简体中文繁體中文にほんご
友情链接:
AI Newsletters AI ToolsMCP ServersAI NewsAIBaseLLM LeaderboardAI Ranking
© 2025AIBase
商务合作网站地图