微新创想:谷歌近日确认其AI聊天机器人Gemini正面临大规模的蒸馏攻击。这种攻击方式主要通过重复提问来探测模型的内部逻辑,攻击者的目标可能是克隆该模型或提升自身AI系统的性能。据谷歌披露,单场攻击中提示次数超过了10万次,攻击来源遍布全球,主要由具有商业动机的行为者发起,其中包括一些AI私企和研究机构。
谷歌表示,此类攻击属于知识产权的非法获取,严重威胁其AI技术的安全与独占性。尽管公司已经部署了相应的防御机制,但由于Gemini服务的公开性质,仍然存在一定的安全风险。攻击者利用模型的公开接口进行数据提取,可能影响模型的训练效果和数据隐私。
威胁情报专家指出,蒸馏攻击的趋势可能不仅仅局限于Gemini,而是会逐渐扩展到企业定制的大模型领域。一旦企业级AI模型成为攻击目标,其内部的敏感业务知识和数据将面临更大的泄露风险。这不仅可能损害企业的竞争优势,还可能引发法律和合规方面的挑战。
因此,加强AI模型的安全防护措施,成为当前企业和研究机构必须重视的问题。除了技术层面的防御,还需要在数据访问权限、模型训练过程以及用户行为监控等方面采取综合策略,以降低被攻击的可能性。同时,推动行业标准的建立,有助于提升整体的AI安全水平,保护核心技术不被滥用。
