美国顶尖人工智能企业集体迈出重要一步 7月21日 消息:据路透社深度报道,美国政府近日宣布一项重大突破——多家全球领先的人工智能公司自愿达成共识,将为其人工智能生成的内容引入独特的水印技术,并全面开放第三方审查机制,旨在全面提升人工智能技术的安全性与透明度。此次参与承诺的七家行业巨头包括亚马逊、Anthropic、谷歌、Inflection、Meta、微软和 OpenAI,它们均表示将致力于强化系统安全并提高运作透明度,其中包括允许独立第三方专家对其核心模型进行严格审查。
美国政府通过官方声明强调:”新兴技术企业的研发团队肩负着保障产品安全的重大责任。为了充分释放人工智能的巨大潜力,美国政府鼓励整个行业坚持最高标准,确保技术创新始终以维护美国公民的合法权益和安全为前提。” 根据声明内容,这七家公司首先承诺在产品公开发布前,必须通过严格的内部与外部双重安全测试,并将与行业参与者、政府部门、学术机构及公众共享相关测试数据,共同构建完善的人工智能风险管理体系。
在安全防护措施方面,这些企业将大幅增加网络安全投入,并建立更精密的内部威胁防控体系,以严密保护其核心的专有模型权重数据——这些数据是人工智能模型高效运行的关键要素。同时,它们还同意建立第三方调查机制,确保能及时发现并报告系统中的潜在安全漏洞。
为了增强公众信任,七家公司还将推出创新举措,帮助用户有效识别人工智能生成内容。例如通过开发水印标记或其他可视化工具,让消费者明确知道哪些内容是由AI生成的。此外,这些企业将优先开展针对性研究,深入探讨人工智能模型可能带来的社会风险,包括可能引发的种族歧视等偏见问题,以及如何更好地保护个人隐私数据。
需要特别指出的是,尽管这些承诺均为企业自愿采取的行动,目前尚未设立违反承诺的惩罚机制,因此从执行层面来看,其约束力尚存一定不确定性。但这一系列举措无疑展现了人工智能行业在自我规范方面的积极态度,为构建更安全、更透明的人工智能生态奠定了重要基础。