微新创想(idea2003.com) 10 月 28 日消息:谷歌正式宣布将全面扩展其漏洞奖励计划(VRP),重点奖励那些能够发现针对生成式人工智能(AI)系统攻击方案的研究人员,以此全面提升AI系统的安全防护能力。谷歌安全团队负责人Laurie Richardson和Royal Hansen指出:”生成式AI带来了与传统数字安全截然不同的新挑战,包括潜在的偏见问题、模型操控风险以及数据误解(即幻觉)等。”
此次漏洞奖励计划将重点关注以下几类安全威胁:提示注入攻击、训练数据集中敏感信息的泄露、模型恶意操控、能够触发误分类的对抗性扰动攻击,以及模型盗窃等。特别值得一提的是,谷歌在今年7月早些时候专门成立了AI红队,作为其安全AI框架(SAIF)的重要组成部分,致力于主动识别和应对AI系统的潜在威胁。
在履行保障AI安全的承诺方面,谷歌还宣布将通过现有开源安全倡议进一步强化AI供应链安全。例如,通过软件供应链级别(SLSA)和Sigstore等工具,谷歌能够确保软件的完整性和来源可信度。”数字签名技术,如Sigstore提供的解决方案,可以让用户有效验证软件是否遭到篡改或替换。”谷歌表示。同时,SLSA Provenance元数据能够详细记录软件的构成和构建过程,帮助消费者确认许可合规性、识别已知漏洞,并检测更隐蔽的高级威胁。
这一重要举措正值OpenAI宣布成立全新内部准备团队之际,该团队的核心任务是”跟踪、评估、预测和保护”针对网络安全、化学、生物、放射性和核(CBRN)威胁的生成式AI潜在灾难性风险。值得注意的是,谷歌、OpenAI、Anthropic和微软四家公司还联合宣布将设立一个总额达1000万美元的AI安全基金,专门用于推动AI安全领域的研究与创新,共同构建更安全的AI生态系统。