2026年1月21日,一项重大安全漏洞浮出水面,研究人员揭示攻击者可利用精心设计的恶意日历邀请,通过自然语言指令绕过谷歌Gemini AI助手的防护屏障,从而窃取用户私密日历数据。Gemini作为集成于Gmail、日历等谷歌服务的智能助手,本应提供强大的安全防护,但在实际应用中却暴露出严重缺陷。当用户查询日程时,Gemini会解析包含恶意载荷的事件,进而触发敏感信息的外泄,给用户隐私带来巨大威胁。
Miggo Security团队经过深入测试证实,即便谷歌已采取多项加强防御措施,此类基于提示词注入的攻击仍可成功执行。攻击者能够通过构造看似无害的自然语言指令,诱骗Gemini创建包含用户隐私内容的新日程,从而实现对敏感数据的非法获取。这一发现再次敲响警钟,表明现有AI安全机制在应对复杂攻击时仍存在明显短板。
目前谷歌已迅速响应,部署了新的防护措施以应对这一安全威胁。然而研究指出,AI系统在防御意图模糊的指令时仍面临严峻挑战。传统安全机制往往依赖静态规则判断,难以有效识别隐含恶意意图的自然语言指令。未来AI安全防护必须转向上下文感知型机制,通过深度理解用户行为和语义意图,才能构建更可靠的安全防线,有效抵御新型攻击手段的威胁。
