签署还是否决:加州的人工智能灾难法案 SB 1047 接下来会怎样?
加利福尼亚州一项颇具争议的旨在预防人工智能灾难的法案 SB 1047,已在该州参议院通过最终投票,现提交至州长加文·纽瑟姆(Gavin Newsom)的办公桌上。他必须权衡人工智能系统最极端的理论风险——包括它们在人类死亡事件中可能扮演的角色——以及可能阻碍加利福尼亚州人工智能繁荣的因素。他必须在 9 月 30 日之前签署 SB 1047 使其成为法律,或者完全否决它。
由州参议员斯科特·维纳(Scott Wiener)提出的 SB 1047 法案旨在防止超大型人工智能模型引发灾难性事件的可能性,例如造成人员伤亡或导致超过 5 亿美元损失的网络攻击。
需要明确的是,如今很少有大到能被该法案涵盖的人工智能模型,而且人工智能也从未被用于如此规模的网络攻击。但该法案关注的是人工智能模型的未来,而非当下存在的问题。
SB 1047 法案将使人工智能模型开发者对其造成的危害负责——就像让枪支制造商对大规模枪击事件负责一样——并将赋予加利福尼亚州总检察长权力,如果人工智能公司的技术被用于灾难性事件,可对其提起诉讼并要求高额罚款。如果一家公司行事鲁莽,法院可以命令其停止运营;受监管的模型还必须有一个“终止开关”,以便在被认为危险时能够将其关闭。
该法案可能重塑美国的人工智能产业,距离成为法律只差签署这一步。以下是 SB 1047 法案的未来可能如何发展。
为什么纽瑟姆可能会签署它
维纳认为,硅谷需要承担更多责任,他此前曾对 TechCrunch 表示,美国必须从过去监管技术的失败中吸取教训。纽瑟姆可能会有动力在人工智能监管方面果断采取行动,并让大型科技公司承担责任。
包括埃隆·马斯克在内的一些人工智能高管对 SB 1047 持谨慎乐观态度。
对于 SB 1047 法案,另一位持谨慎乐观态度的人是微软前首席人工智能官索菲亚·维拉斯特吉(Sophia Velastegui)。她告诉 TechCrunch :“SB 1047 是一个不错的妥协方案”,同时也承认该法案并不完美。维拉斯特吉说:“我认为美国或任何致力于此的国家都需要一个负责任的人工智能办公室。不应该只有微软有。”
Anthropic 是 SB 1047 的另一个谨慎支持者,不过该公司尚未对该法案采取正式立场。这家初创公司提出的几项修改建议被添加到了 SB 1047 中,其首席执行官达里奥·阿莫迪(Dario Amodei)在给加州州长的一封信中表示,该法案“可能利大于弊”。由于 Anthropic 的修订,人工智能公司只有在其人工智能模型造成某些灾难性危害后才会被起诉,而不是像之前版本的 SB 1047 所规定的那样在此之前就被起诉。
为什么纽瑟姆可能会否决它
鉴于业界对该法案的强烈反对,如果纽瑟姆否决它,也不足为奇。如果他签署 SB 1047,他将把自己的声誉押在上面,但如果他否决,他可以把这个问题再搁置一年,或者让国会来处理。
安德森·霍洛维茨基金(Andreessen Horowitz)的普通合伙人马丁·卡萨多(Martin Casado)在接受 TechCrunch 采访时表示:“这项[SB 1047]改变了我们 30 年来处理软件政策的先例。它将责任从应用程序转移到基础设施,这是我们从未做过的。”
科技行业对 SB 1047 号法案发出了强烈的抗议。除了 a16z 之外,众议院议长南希·佩洛西、OpenAI、大型科技行业贸易组织以及知名的人工智能研究人员也在敦促纽森不要签署该法案。他们担心这种责任模式的转变会对加利福尼亚州的人工智能创新产生寒蝉效应。
对初创企业经济产生寒蝉效应是任何人都不愿意看到的。人工智能的繁荣对美国经济是一个巨大的刺激,纽森面临着不能浪费这一机遇的压力。甚至美国商会也致信纽森,要求他否决该法案,称“人工智能是美国经济增长的基础”。
如果第 1047 号参议院法案成为法律
参与起草 SB 1047 法案的一位消息人士告诉 TechCrunch,如果纽瑟姆签署该法案,第一天不会有任何事情发生。
到 2025 年 1 月 1 日,科技公司需要为其人工智能模型撰写安全报告。此时,如果法院认定某家人工智能公司的模型存在危险,加利福尼亚州的检察长可以要求下达禁制令,责令该人工智能公司停止训练或运行其人工智能模型。
到 2026 年,该法案的更多内容将开始生效。届时,前沿模式委员会将成立,并开始从科技公司收集安全报告。这个由九人组成的委员会将由加利福尼亚州州长和立法机构选定,将就哪些公司遵守规定、哪些公司不遵守规定向加利福尼亚州的总检察长提出建议。
同年,SB 1047 法案还将要求人工智能模型开发者聘请审计员来评估其安全实践,这实际上为人工智能安全合规创造了一个新的行业。而且,如果其工具被用于灾难性事件,加利福尼亚州的总检察长将能够对人工智能模型开发者提起诉讼。
到 2027 年,前沿模型委员会可能会开始向人工智能模型开发者发布关于如何安全可靠地训练和运行人工智能模型的指导意见。
如果第 1047 号参议院法案被否决
如果纽瑟姆否决 SB 1047 法案,OpenAI 的愿望将会实现,而且联邦监管机构最终可能会带头监管人工智能模型……
周四,OpenAI 和 Anthropic 为联邦人工智能监管的模式奠定了基础。根据一份新闻稿,他们同意让一个联邦机构——人工智能安全研究所提前使用其先进的人工智能模型。与此同时,OpenAI 已支持一项法案,该法案将允许人工智能安全研究所为人工智能模型设定标准。
OpenAI 首席执行官山姆·奥特曼周四在一条推文中写道:“出于多种原因,我们认为这在国家层面发生很重要。”
仔细解读可以发现,联邦机构通常制定的技术监管规定不像加州那样繁重,而且制定过程要长得多。但不仅如此,从历史上看,硅谷一直是美国政府重要的战术和商业合作伙伴。
卡萨多说:“实际上,最先进的计算机系统与联邦政府合作由来已久。我在国家实验室工作时,每次有新的超级计算机问世,最初的版本都会提供给政府。我们这么做是为了让政府具备相应的能力,我认为这比用于安全测试的理由更充分。”