
近期,AI代理生态系统正面临一场前所未有的严重安全危机,其核心架构和敏感数据面临被大规模泄露的风险。多项最新测试结果揭示,包括OpenClaw(原Clawdbot)以及类似Reddit的交互平台Moltbook在内的关键应用,均存在致命漏洞,使得攻击者能轻易绕过现有防御机制,窃取至关重要的敏感信息。
安全研究机构与开发者进行的深度分析表明,OpenClaw平台的安全性评估结果令人担忧。开发者Lucas Valbuena利用专业工具ZeroLeaks进行的测试发现,在权威的Gemini3Pro测试环境下,OpenClaw的安全性评分仅为区区2分(满分100),几乎形同虚设。实验数据触目惊心:该平台的数据提取成功率高达84%,而提示注入(Prompt Injection)攻击的成功率更是飙升至91%。这意味着,该系统的提示词、内部工具配置,乃至诸如SOUL.md之类的核心内存文件,几乎对外部世界完全透明,极易被恶意利用。
与此同时,独立安全研究员Jamieson O’Reilly也披露了另一项惊人发现:Moltbook平台的整个数据库竟然在公共网络上毫无任何保护地敞开。这份泄露的数据中包含了海量的秘密API密钥,一旦落入不法分子之手,后果不堪设想。攻击者可以利用这些密钥,冒充如知名AI研究员Andrej Karpathy等业界大咖用户,发布虚假内容、煽动政治议题,甚至进行危害巨大的加密货币诈骗,严重扰乱信息秩序和金融安全。

此次安全漏洞的影响范围极其广泛。目前已监测到约954个Clawdbot实例的网络网关端口处于完全开放状态,且绝大多数缺乏基本的身份验证措施。受影响的服务器遍及全球多个国家,包括中国、美国、德国等。这一严峻态势不仅暴露出AI代理系统在设计之初的安全考量不足,更凸显了当前网络安全防护的滞后性。
面对“提示注入”这一新型攻击方式,网络安全专家指出,目前尚无绝对的防御手段。这种攻击利用了大型语言模型(LLM)的特性,通过巧妙构造输入来操纵AI行为,绕过传统安全边界。因此,从源头加强防范显得尤为关键。
为有效应对当前危机并提升AI代理系统的安全性,专家们紧急呼吁开发者采取更为严谨的安全策略。首要建议是,避免在配置文件中直接存储任何敏感数据,而是应通过环境变量来安全管理API密钥等关键信息。此外,启用Cloudflare Tunnel或零信任登录(Zero Trust Login)等先进的安全技术,对系统进行多层次加固,是构建坚固防线的必要之举,以最大程度地降低数据泄露和恶意攻击的风险。
