
微新创想:近日 以色列 安全 公司 Adversa 披露 了 人工智能 巨头 Anthropic 旗下 开发 工具 Claude Code 的 一个 严重 安全 漏洞 研究人员 发现 当 该 AI 工具 一次性 接收 过多 的 子命令 时 其 内置 的 安全 拦截 规则 会 失效 这一 问题 的 根源 在于 代码 中 一个 硬编码 的 限制 系统 内部 设置 了一个 名为 “最大 安全 检查 子命令 数” 的 变量 其 上限 被 固定 为 50 个 简单 的 溢出 攻击 即可 绕过 防御 在 正常 情况 下 Claude Code 会 根据 设置 自动 拦截 如 网络 请求 等 高风险 操作 然而 一旦 指令 链条 超过 50 个 系统 就会 从 “自动 拒绝” 降级 为 “询问 用户” 黑客 可以 利用 这一 特性 通过 在 恶意 代码库 中 隐藏 超长 指令 链 诱导 AI 执行 危险 命令

虽然 系统 会 弹出 提示 但 开发者 在 长时间 工作 中 往往 会 习惯性 地 点击 允许 从而 导致 系统 失守 安全 专家 建议 尽快 更新 补丁 安全 专家 指出 这种 “计数器 失效” 的 漏洞 在 自动化 集成 CI/CD 环境 下 风险 极大 因为 在 非 交互 模式 下 程序 可能 会 默认 跳过 权限 检查 直接 给予 AI 执行 权限
讽刺 的 是 Anthropic 内部 实际 上 已经 开发 了 一 套 更 先进 的 解析器 来 解决 此 问题 专家 建议 官方 应 尽快 将 该 功能 推向 公众 版本 并 将 安全 逻辑 从 “询问” 彻底 改为 “拒绝” 这一 漏洞 的 存在 提醒 我们 在 依赖 AI 工具 进行 自动化 任务 时 必须 更 加 注重 安全 设计 和 防护 机制 以 避免 潜在 的 安全 风险
