OpenAI 联合创始人兼前首席科学家伊利亚-苏茨克沃(Ilya Sutskever)和 OpenAI 前工程师丹尼尔-利维(Daniel Levy)与投资人、创业加速器 Y Combinator 前合伙人丹尼尔-格罗斯(Daniel Gross)联手创建了安全超级智能公司(SSI)。新公司的目标和产品从其名称中就可见一斑。
SSI 是一家美国公司,在帕洛阿尔托和特拉维夫设有办事处。三位创始人在 6 月 19 日的一份在线公告中表示,该公司将通过同时开发安全性和能力来推进人工智能(AI)的发展。他们补充道
"我们的专注意味着不会受到管理费用或产品周期的干扰,我们的商业模式意味着安全、保障和进步都不会受到短期商业压力的影响。
Sustkever 和 Gross 已经开始担心人工智能的安全问题
Sutskever 于 5 月 14 日离开 OpenAI。他参与了解雇首席执行官山姆-阿尔特曼(Sam Altman)的事件,并在阿尔特曼回归后退出董事会,在公司扮演了一个模棱两可的角色。丹尼尔-列维(Daniel Levy)是在苏茨克沃之后几天离开 OpenAI 的研究人员之一。
Sutskever和Jan Leike是OpenAI于2023年7月成立的Superalignment团队的负责人,该团队旨在研究如何 "引导和控制比我们聪明得多的人工智能系统"。这种系统被称为人工通用智能(AGI)。OpenAI 将其 20% 的计算能力分配给了 Superalignment 团队。
莱克也于今年 5 月离开了 OpenAI,现在是亚马逊支持的人工智能初创公司 Anthropic 的团队负责人。OpenAI 公司总裁格雷格-布罗克曼(Greg Brockman)在一篇长长的 X 帖子中为其与安全相关的预防措施进行了辩护,但在 Superalignment 团队的研究人员于 5 月份离职后,该团队也随之解散。
其他顶尖科技人士也担心
前 OpenAI 研究人员是许多担忧人工智能未来发展方向的科学家之一。以太坊联合创始人维塔利克-布特尔廷(Vitalik Butertin)在OpenAI人员流失之际称AGI "有风险"。不过,他补充说,"就厄运风险而言,这种模式也比企业巨头和军队低得多。"

曾是 OpenAI 支持者的特斯拉首席执行官埃隆-马斯克(Elon Musk)和苹果联合创始人史蒂夫-沃兹尼亚克(Steve Wozniak)等 2600 多名科技领袖和研究人员敦促暂停人工智能系统的训练六个月,让人类思考它们所代表的 "深远风险"。
SSI 的公告指出,该公司正在招聘工程师和研究人员。