近日,以色列安全公司Adversa披露了人工智能巨头Anthropic旗下开发工具Claude Code的一个严重安全漏洞。研究人员发现,当该AI工具一次性接收过多的子命令时,其内置的安全拦截规则会失效。
这一问题的根源在于代码中一个硬编码的限制。系统内部设置了一个名为“最大安全检查子命令数”的变量,其上限被固定为 50 个。

简单的溢出攻击即可绕过防御
在正常情况下,Claude Code会根据设置自动拦截如网络请求等高风险操作。然而,一旦指令链条超过 50 个,系统就会从“自动拒绝”降级为“询问用户”。
黑客可以利用这一特性,通过在恶意代码库中隐藏超长指令链,诱导AI执行危险命令。虽然系统会弹出提示,但开发者在长时间工作中往往会习惯性地点击允许,从而导致系统失守。
安全专家建议尽快更新补丁
安全专家指出,这种“计数器失效”的漏洞在自动化集成(CI/CD)环境下风险极大。因为在非交互模式下,程序可能会默认跳过权限检查,直接给予AI执行权限。
讽刺的是,Anthropic内部其实已经开发了一套更先进的解析器来解决此问题。专家建议官方应尽快将该功能推向公众版本,并将安全逻辑从“询问”彻底改为“拒绝”。



