人工智能(AI)模型正以惊人的速度向前发展。主要的开发商在增强这些模型理解复杂查询的能力以及提供更具洞察力、理由充分的回复方面取得了长足的进步。
广为人知的 ChatGPT 模型的创建者 OpenAI 于 9 月 12 日发布了关于其新的 "草莓 "模型的公告,强调了这一点。
这项开发也被称为 OpenAI o1 模型系列,它将使人们在回答问题之前能够更多地思考问题,"就像人一样"。
我们将发布 OpenAI o1 的预览版--这是一系列新的人工智能模型,旨在让人们在做出反应之前花更多时间思考问题。
- OpenAI (@OpenAI) 2024 年 9 月 12 日
与以前的科学、编码和数学模型相比,这些模型可以推理复杂的任务,解决更难的问题。https://t.co/peKzzKX1bu。
据开发者称,这些模型还将能够 "完善自己的思维过程,尝试不同的策略,并认识到自己的错误"。
虽然人工智能肯定不会接管世界,这也不是开发该技术的人的目标,但该技术的快速发展让立法者担心,如果这些模型失控,是否有能力控制它们,并在开发阶段实施安全措施。
在过去的一周里,加州立法者继续通过与人工智能相关的法案,影响着加州的居民和开发者。
其中包括第 1836 号众议院法案,该法案禁止在未经事先同意的情况下擅自用人工智能生成已故人物的复制品,以保护表演者的权利和肖像权。
不过,业内人士争论的主要法案之一是参议院法案(SB)-1047,也被称为 "前沿人工智能模型安全可靠创新法案"。
如果获得通过,该法案将主要影响主要的人工智能开发商--如 OpenAI、谷歌和微软--他们拥有开发人工智能模型的资源,这些模型需要超过 10^26 次整数或浮点运算 (FLOP),成本超过 1 亿美元。
相关报道 人工智能高管访问白宫,讨论能源基础设施问题
开发人员必须对模型进行训练和微调,以实现法案中列出的安全功能。这包括人工智能模型关闭功能、创建和保留书面安全协议、确保第三方年度审计,以及向加州总检察长提交合规声明和事故报告。
该法案正面临着业内各种规模开发商的反弹,他们认为该法案扼杀了创新。Cointelegraph 采访了律师事务所 Haynes Boone 的合伙人 Dina Blikshteyn,以了解这种情况是如何发生的。
Blikshteyn表示,该法案还可能延伸到微调人工智能模型的小型开发者,这些模型的计算能力大于或等于10^25整数或FLOP的3倍,并且能够负担1000万美元的访问费用。
"该法案旨在防止人工智能模型造成的灾难,特别是通过实施关闭功能,"她说。
"然而,它可能无法完全消除风险,因为即使在关闭之后,人工智能模型也可能引发连锁反应,造成有害后果。"
她还指出
"虽然该法案的意图是积极的,但对安全协议、审计和合规报告的要求可能会被视为过高,可能会带来繁琐的信息披露和官僚主义要求,从而阻碍加州人工智能产业的创新。"
美国目前还没有监管人工智能模型输出的联邦框架。不过,布利克什泰恩指出,加利福尼亚州和科罗拉多州等州正在制定自己的法规。
加利福尼亚州州长加文-纽森(Gavin Newsom)桌上的法规将影响到训练和使用所涵盖人工智能模型的加利福尼亚人。
"大型人工智能公司将有更多的人力来处理法案的要求,"她指出,"这可能会被认为是对小型公司资源的一种消耗。"
"虽然大型人工智能公司不太可能离开加州,但各州法律的差异和缺乏联邦监督可能会促使较小的开发商搬迁到人工智能治理法规较少的州或开展人工智能工作。"
尽管如此,Blikshteyn 还是强调了许多业内人士认为的事实:"在联邦层面立法,为强大的人工智能模型设定基本要求,对消费者和开发者都有好处。它还将为所有州提供一个基准,说明这些要求是什么。"
SB-1047 于 9 月 9 日提交给了州长纽森,目前仍在等待决定。纽森对该法案发表评论称,他一直致力于 "支持冒险但不鲁莽的合理监管"。不过,他也表达了对竞争力潜在影响的担忧。 
加州是全球科技创新的领头羊,其有关人工智能的法律决定是全世界都在屏息关注的。 
人工智能之眼人工智能无人机 "地狱景观 "计划在台湾实施,法学硕士太笨毁灭人类
© 2025 DeFi.io