据报道,专注于研究人工智能生存危险的 OpenAI 整个团队要么已经辞职,要么已经被其他研究小组吸收。

在 OpenAI 首席科学家、公司联合创始人之一伊利亚-苏茨克沃(Ilya Sutskever)宣布离职几天后,曾担任 OpenAI 超级对齐团队另一位联合负责人的前 DeepMind 研究员扬-莱克(Jan Leike)也在 X 上发布了自己已经辞职的消息。

据莱克称,他之所以离开公司,是因为他对公司的优先事项感到担忧,他认为公司更注重产品开发,而不是人工智能安全。

资料来源扬-莱克

Leike 在一系列帖子中表示,OpenAI 领导层在核心优先事项的选择上是错误的,在人工通用智能(AGI)的发展过程中,应该强调安全性和准备性。

AGI 是一个假想的人工智能术语,它能在一系列任务中执行与人类相同或更好的任务。

在 OpenAI 工作三年后,Leike 批评该公司优先开发华而不实的产品,而不是培养强大的人工智能安全文化和流程。他强调急需资源分配,特别是计算能力,以支持他的团队进行重要的安全研究,而这项工作却被忽视了。

"......我与 OpenAI 领导层就公司的核心优先事项产生分歧已经有一段时间了,直到我们最终达到了一个爆发点。在过去的几个月里,我的团队一直在逆风航行......"

去年 7 月,OpenAI 组建了一个新的研究团队,准备迎接极智能人工智能的出现。OpenAI 的首席科学家兼联合创始人伊利亚-苏茨基弗(Ilya Sutskever)被任命为这个新团队的联合负责人,该团队获得了 OpenAI 20% 的计算资源。

在最近的辞职事件之后,OpenAI 选择解散 "Superalignment "团队,并将其职能整合到组织内的其他研究项目中。据报道,这一决定是为应对 2023 年 11 月的治理危机而启动的持续内部重组的结果。

去年 11 月,OpenAI 董事会成功地将奥尔特曼短暂推下了首席执行官的职位,而后在员工的反弹下,奥尔特曼被重新聘用。

据 The Information 报道,Sutskever 告知员工,董事会罢免 Sam Altman 的决定履行了他们的职责,即保证 OpenAI 开发出造福全人类的 AGI。作为六名董事会成员之一,Sutskever 强调董事会致力于使 OpenAI 的目标与更大的利益相一致。