人工智能公司 OpenAI 和 Anthropic 最近同意让美国人工智能安全研究所提前访问各自公司开发的任何 "重大 "新人工智能模型。
虽然据称该协议是出于共同的安全考虑而签署的,但目前还不清楚在出现对安全有重大影响的技术突破时,政府究竟会扮演什么角色。
OpenAI 首席执行官兼联合创始人萨姆-阿尔特曼(Sam Altman)最近在 X 社交媒体平台上发表的一篇文章中认为,这项交易是必要的一步。
"我们很高兴能与美国人工智能安全研究所达成协议,对我们未来的模型进行发布前测试。出于多种原因,我们认为在国家层面进行这项工作非常重要。美国需要继续保持领先地位!"
OpenAI 和 Anthropic 都在为同一个目标而努力:开发人工通用智能(AGI)。对于 AGI 究竟应该如何定义,科学界尚未达成共识,但基本的想法是,如果有必要的资源,人工智能能够做任何人类能做的事情。
这两家公司都分别制定了章程和使命,说明它们的独立目标是以人类利益为核心,安全地创造 AGI。如果其中一家公司或两家公司都取得成功,它们将成为能够赋予机器以人类智能的技术的实际守门人。
这两家公司与美国政府达成协议,在任何产品推出之前公开共享它们的模型,这就把责任推给了联邦政府。
据 Cointelegraph 最近报道,OpenAI 可能即将取得突破。该公司的 "草莓 "和 "猎户座 "项目据称能够进行高级推理,并采用新技术来解决人工智能的幻觉问题。
根据《The Information》的报道,美国政府已经看到了这些工具以及使用它们的 ChatGPT 的任何早期内部迭代。
美国国家标准与技术研究院(US National Institute of Standards and Technology)的一篇博文指出,这项交易以及与之相关的安全准则都是参与公司的自愿行为。
支持这种轻触式监管的公司和分析师认为,这种监管形式的好处在于它能刺激增长,并允许该行业进行自我监管。奥特曼等支持者以这项协议为例,说明这种合作对政府和企业界都有好处。
然而,轻触式监管可能带来的副作用之一就是缺乏透明度。如果 OpenAI 或 Anthropic 成功地完成了他们的使命,而政府认为公众没有必要知道,那么似乎就没有任何法律动力要求公开信息了。
相关报道 Anthropic首席执行官称人工智能的未来是具有公司结构的蜂巢式思维
© 2025 DeFi.io