近日,人工智能公司Anthropic正式宣布支持加州州长斯科特・维纳提出的SB53法案。这项具有里程碑意义的法案旨在对全球最大的AI模型开发者实施前所未有的透明度要求,成为美国首个针对AI安全领域的立法尝试。然而,这一举措却引发了争议,许多硅谷科技企业和联邦政府对此表示强烈反对。
Anthropic在其官方博客中明确指出,尽管他们认为前沿AI安全问题应在联邦层面统一解决,而非由各州各自为政,但强大的AI技术发展不会等待华盛顿的共识。该公司强调,制定AI治理标准已是当务之急,而SB53法案提供了一条合理的路径。如果该法案最终获得通过,像Anthropic、OpenAI、谷歌和xAI等AI模型开发者将必须制定详细的安全框架,并在部署强大AI模型前,公开发布安全与安保报告。此外,法案还将为举报安全问题的员工提供法律保护,确保他们免受报复。
该法案特别关注于限制AI模型对”灾难性风险”的贡献,具体定义为导致至少50人死亡或造成超过10亿美元损失的事件。SB53侧重于防范极端AI风险,例如防止AI模型被用于生物武器的开发或网络攻击,而不涉及更近一步的AI深度伪造或过度迎合等问题。
目前,加州参议院已经通过了SB53法案的初步版本,但仍需进行最终投票,才能正式送交州长签署。尽管加州州长纽森尚未对该法案表态,但他曾否决过类似的SB1047法案。反对声音主要来自硅谷及特朗普政府,他们认为此类法案可能限制美国在与中国竞争中的创新优势。安德森・霍洛维茨(Andreessen Horowitz)和Y Combinator等知名投资者对此法案进行了强烈反对,认为州政府不应干预AI安全问题,应该将此事交给联邦政府统一处理。
尽管存在这些反对意见,政策专家认为SB53法案相较于之前的AI安全法案显得更为温和。加州立法者在制定该法案的过程中,充分显示了对技术现实的尊重以及一定的立法克制。Anthropic的联合创始人杰克・克拉克(Jack Clark)表示,尽管希望有联邦标准,但现有法案为AI治理提供了一份不可忽视的蓝图。
划重点:
📜 Anthropic支持SB53法案,强调AI治理的重要性。
⚖️ 法案要求大型AI开发者制定安全框架,发布安全报告并保护举报者。
🔍 SB53专注于防范极端AI风险,尚需最终投票才能生效。