一项要求人工智能开发者制定安全协议以阻止对人类造成 "重大伤害 "的加州法案在硅谷科技界引起了轩然大波。
加州的《前沿人工智能模型安全保障创新法案》(Safe and Secure Innovation for Frontier Artificial Intelligence Models Act),也被称为 SB 1047,将要求人工智能开发者执行安全协议,以防止大规模伤亡或重大网络攻击等事件的发生。
该法案由加州民主党议员于今年 2 月提出。
拟议的法规还规定为人工智能模型设置一个 "紧急停止 "按钮,要求每年对人工智能安全实践进行第三方审计,创建一个新的前沿模型部门(FMD)来监督合规情况,并对违规行为处以重罚。
不过,美国国会也有反对声音,美国国会议员罗-卡纳(Ro Khanna)于 8 月 13 日发表声明反对 SB 1047,表示担心 "该法案目前的写法将是无效的,是对个人企业家和小企业的惩罚,并伤害了加州的创新精神"。
代表硅谷的卡纳承认有必要制定人工智能立法,"以保护工人并应对包括错误信息、深度伪造和贫富差距扩大在内的潜在风险"。
该法案也遭到了硅谷的反对,安德森-霍洛维茨(Andreessen Horowitz)等风险投资公司认为,该法案将加重初创企业的负担,扼杀创新。
8 月 2 日,a16z 首席法务官杰库马尔-拉马斯瓦米(Jaikumar Ramaswamy)致信该法案的起草人之一、参议员斯科特-维纳(Scott Wiener),声称该法案将 "因其武断和不断变化的门槛而对初创企业造成负担"。
李飞飞(Fei-Fei Li)和吴恩达(Andrew Ng)等知名行业研究人员也对此表示反对,他们认为这将损害人工智能生态系统和开源开发。
8 月 6 日,计算机科学家李飞飞告诉《财富》:
"如果通过成为法律,SB-1047 将损害我们萌芽中的人工智能生态系统,尤其是其中已经处于不利于当今科技巨头的部分:公共部门、学术界和'小科技'。"
与此同时,大型科技公司声称,过度监管人工智能将限制言论自由,并可能将科技创新赶出加州。
Meta 公司的首席人工智能科学家 Yann LeCun 在今年 6 月于 X 上发表的一篇文章中表示,这项立法将损害研究工作,并声称 "监管研发工作将对人工智能生态系统造成世界末日般的后果"。
该法案于 5 月在两党支持下在参议院获得通过,现在将提交给众议院,众议院必须在 8 月 31 日前通过该法案。
© 2025 DeFi.io