加拿大政府近日正式发布《生成式人工智能系统自愿行为准则》,旨在为这一前沿技术的发展与应用提供全面规范。该准则不仅明确了生成式AI系统的开发者和管理者应承担的责任,更从安全、公平、透明、人工监督和有效性等多个维度提出了具体要求,标志着加拿大在人工智能治理方面迈出了重要一步。
这一准则的核心内容涵盖了六大关键领域,为生成式AI系统的全生命周期管理提供了行动指南。在责任方面,要求所有参与方建立完善的风险管理机制,包括制定相关政策、操作流程和人员培训体系。对于面向公众的AI系统,准则还特别强调需通过第三方审计等多重防御措施,确保系统在发布前的安全性。
在安全领域,准则要求开发者进行全面的风险评估,重点排查系统可能面临的恶意使用或不当操作风险。同时,必须制定并实施有效的风险缓解措施,并向下游使用者提供清晰的系统操作指南和风险控制方案。这一要求体现了加拿大政府对AI安全问题的重视,确保技术发展始终处于可控范围内。
公平与公正作为AI伦理的核心要素,在准则中得到了特别强调。所有生成式AI系统的开发者,无论系统用途如何,都必须严格评估和优化训练数据集,有效管理数据质量与潜在偏见。准则还要求在系统发布前采用多样化的测试方法,全面评估并减轻输出结果可能存在的偏见风险,确保AI系统的公平性。
透明度是构建信任的关键。准则要求面向公众的AI系统开发者公开披露系统的能力边界和局限性,并建立可靠、免费的检测机制,重点针对音频-视觉内容的生成质量。同时,必须详细说明用于系统开发的训练数据类型,以及识别和缓解风险的具体措施,让公众能够全面了解AI系统的运作方式。
人工监督和监控机制在准则中占据重要地位。开发者需建立完善的报告数据库,持续跟踪系统运行情况,并根据反馈及时优化风险缓解措施。管理者则需在系统发布后实施持续监控,防范有害使用行为,同时通过第三方反馈渠道和智能使用控制机制,最大限度地降低潜在危害。
在有效性与健壮性方面,准则要求开发者采用多种测试方法,在系统部署前全面评估性能表现。这包括通过对抗性测试识别系统漏洞,评估网络安全风险并制定相应防护措施,以及进行基准测试以衡量模型实际性能,确保AI系统在各种环境下都能稳定运行。
这一自愿行为准则已获得众多知名机构的积极响应和签署,充分彰显了其在加拿大生成式AI生态系统中的权威性和指导意义。更重要的是,该准则可能对正在审议中的《人工智能与数据法案》(AIDA)产生深远影响,推动相关法律条文更加结构化和具体化,以适应快速发展的AI技术。
当前,AIDA法案正处于工业与技术委员会的审议阶段。加拿大政府已提出多项关键修订建议,包括明确定义”高影响”AI系统类别,为通用型AI系统制定专项监管要求,强化AI价值链的差异化监管,以及设立专职AI监管机构等。这些改革措施将确保加拿大AI立法与欧盟及其他经合组织成员国的立法保持高度一致,为加拿大企业开拓国际市场提供有力支持,促进全球AI治理体系的协同发展。