加利福尼亚州参议员斯科特·维纳再次积极推动人工智能安全立法,其最新提案 SB53 正在等待州长纽森的正式签署。这位立法者曾在 2024 年尝试推出 SB1047 法案,却因遭到硅谷企业的强烈抵制而最终被州长否决。此次 SB53 的推出虽然仍面临挑战,但似乎获得了更广泛的支持,甚至部分科技公司也表示了认可。该法案的核心内容是要求年收入超过 5 亿美元的大型 AI 实验室,包括 OpenAI 和谷歌等巨头,必须定期发布安全报告,详细披露其 AI 系统可能带来的潜在危害。这些报告将涵盖可能导致人类死亡、网络攻击、化学武器扩散等严重风险。与 SB1047 不同,SB53 并未直接对 AI 公司施加法律责任,而是更侧重于提升透明度和鼓励自我报告。此外,法案还特别设立了安全隐私举报渠道,允许 AI 实验室的员工向政府官员匿名报告发现的安全问题。值得一提的是,SB53 还计划建立一个名为 CalCompute 的州立云计算集群,旨在为中小型 AI 研究机构提供资源支持,促进科技生态的多元化发展。尽管部分科技公司仍主张 AI 监管应由联邦政府主导,维纳却强调,鉴于联邦政府在此领域的监管力度不足,加州政府有责任率先行动。他认为,当前美国联邦政府对 AI 的关注点过于集中在经济增长上,而忽视了必要的安全监管。维纳的目标是确保加利福尼亚在 AI 安全领域成为全国标杆,在推动科技创新的同时,切实保障公众的健康与安全。他指出,科技行业不能仅依赖自我监管来确保安全,必须通过合理的法律法规来维护公众利益。划重点:🌟 新法案 SB53 要求大型 AI 公司发布安全报告,首次对 AI 的潜在风险进行透明化管理。🛡️ 法案设立员工举报渠道,鼓励科技公司内部举报安全隐患。📈 维纳强调州政府有责任在 AI 安全方面采取行动,推动安全监管的必要性。

