
欧盟立法者在布鲁塞尔达成一项具有里程碑意义的协议,正式推出全球首部全面监管人工智能的法律框架。这项开创性立法的核心目标在于根据人工智能系统的潜在风险等级进行差异化监管,为欧盟27个成员国构建统一的AI治理体系。该法案在推动技术创新的同时,也强调对基本人权的保护,体现了欧盟在人工智能领域的战略前瞻性。
新法案将人工智能系统划分为四个明确的风险等级:不可接受风险、高风险、有限风险和最低风险。根据路透社的深度报道,被归为”不可接受风险”的AI应用将面临全面禁令。具体而言,政府利用人工智能进行的操控性社会评分系统,以及在公共场所实施的实时生物识别监控等执法行为,均属于此类高风险应用。对于高风险AI应用,如应用于关键基础设施和医疗设备等领域,法案规定了严格的监管要求,包括强制性风险评估和高质量数据集的强制性标准。同时,法案特别设立了欧洲人工智能办公室,该机构将与欧盟委员会协同运作,确保各国AI法规得到一致有效的执行。
在处罚机制方面,法案制定了严厉的执法措施。企业若违反AI法规,将面临最高3500万欧元或全球年营收7%的巨额罚款,这一强有力的威慑机制旨在确保大型科技企业严格遵守相关规定。谈判过程中的一项重要突破是针对强大通用人工智能模型的监管方案。例如ChatGPT背后的系统等先进AI模型,将采用双层监管模式:所有通用AI模型必须满足基本透明度要求,而那些被评估存在”系统性风险”的强大模型,则需要承担额外的监管义务,包括强制性的模型评估和事故报告制度。
这项新法规预计将对全球AI发展产生深远影响。欧盟的法规通常具有”布鲁塞尔效应”,往往成为全球AI治理的参照标准。此次推出的AI法案可能会引导其他主要经济体在人工智能治理方面采取类似措施,从而在全球范围内形成更加规范和统一的AI发展生态。这项具有划时代意义的立法举措,不仅标志着欧盟在人工智能治理领域的领先地位,也为全球AI产业的健康发展提供了重要的法律保障。
