OpenAI 公司的一位前内部人士本周告诉美国参议员,OpenAI 最新的 GPT-o1 人工智能模型首次展示了可以帮助专家重现已知和新生物威胁的能力。
"OpenAI 的前技术人员威廉-桑德斯(William Saunders)对参议院司法委员会隐私、技术与法律小组委员会说:"OpenAI 的新人工智能系统是第一个展示生物武器风险步骤的系统,因为它能够帮助专家计划复制已知的生物威胁。
他警告说,如果在没有适当保障措施的情况下开发人工智能系统,这种能力有可能造成 "灾难性伤害"。
专家们还作证说,人工智能正在飞速发展,一个被称为 "人工通用智能"(Artificial General Intelligence)的潜在危险基准即将出现。在 AGI 层面上,人工智能系统可以在广泛的认知任务中与人类智能相媲美,并能自主学习。如果一个公开可用的系统能够理解生物学,并在没有适当监督的情况下开发出新武器,那么恶意用户造成严重危害的可能性就会成倍增加。
"桑德斯告诉参议院委员会:"人工智能公司在构建 AGI 方面进展迅速。"AGI系统有可能在短短三年内建成。"
海伦-托纳(Helen Toner)也是OpenAI董事会成员之一,曾投票赞成解雇联合创始人兼首席执行官萨姆-阿尔特曼(Sam Altman),她也期待着能尽早看到AGI。"她作证说:"即使最短的估计结果是错误的,在未来十年或二十年内开发出人类级别人工智能的想法也应被视为一种真正的可能性,现在就有必要采取重要的准备行动。
桑德斯曾在 OpenAI 工作过三年,她强调了该公司最近宣布的 GPT-o1 项目,这是一个在能力上 "通过了重要里程碑 "的人工智能系统。据Decrypt 报道,OpenAI 甚至表示,它决定摒弃 GPT 版本中传统的数字增长方式,因为该模型展现出了新的能力,使其不仅被视为一种升级,而且被视为一种进化--一种拥有不同技能的全新模型。
桑德斯还对 AGI 开发缺乏足够的安全措施和监督表示担忧。他指出:"没有人知道如何确保AGI系统的安全和可控。"他批评OpenAI在安全人工智能开发方面采取的新方法,更关心的是盈利而不是安全。
"他警告说:"虽然OpenAI率先进行了这方面的测试,但他们也一再将部署置于严格性之上。"我认为,他们确实有可能错过未来人工智能系统中重要的危险能力。"
证词还显示了 OpenAI 面临的一些内部挑战,尤其是在 Altman 下台后暴露出来的挑战。"OpenAI负责开发AGI控制方法的超对齐团队已不复存在。该团队的领导者和许多关键研究人员在努力争取所需资源后辞职了,"他说。
他的话只是在人工智能安全专家对 OpenAI 的方法提出的抱怨和警告中又添了一块砖。伊利亚-苏茨基弗(Ilya Sutskever)是 OpenAI 的联合创始人之一,在解雇阿尔特曼一事上发挥了关键作用,他在 GPT-4o 推出后辞职,并成立了 Safe Superintelligence 公司。
OpenAI的联合创始人约翰-舒尔曼(John Schulman)和调整主管扬-莱克(Jan Leike)离开公司,加入了竞争对手Anthropic,莱克说,在阿尔特曼的领导下,安全 "被闪亮的产品排在了后面"。
同样,OpenAI 前董事会成员托纳和塔莎-麦考利(Tasha McCauley)也撰写了一篇专栏文章,发表在《经济学人》上,认为山姆-奥特曼将利润置于负责任的人工智能开发之上,对董事会隐瞒了重要进展,并在公司内部营造了一种有毒的环境。
桑德斯在声明中呼吁采取紧急监管行动,强调人工智能开发需要明确的安全措施,这些措施不仅来自公司,也来自独立实体。他还强调了科技行业保护举报人的重要性。
这位前 OpenAI 工作人员强调了人工智能发展的广泛影响,包括可能会巩固现有的不平等,助长操纵和错误信息。桑德斯还警告说,"自主人工智能系统失去控制 "有可能导致 "人类灭绝"。
编辑:乔什-奎特纳和安德鲁-海沃德
© 2025 DeFi.io