领先的人工智能(AI)开发商的前雇员们正在敦促这些人工智能先驱公司加强对举报人的保护。这将使他们能够就复杂的人工智能系统的发展向公众表达 "与风险有关的担忧"。

6 月 4 日,OpenAI(ChatGPT)、Anthropic(克劳德)和 DeepMind(谷歌)的 13 名前任和现任员工与 "人工智能教父 "Yoshua Bengio 和 Geoffrey Hinton 以及著名人工智能科学家 Stuart Russell 共同发起了 "人工智能警告权 "请愿活动。

该声明旨在确立前沿人工智能公司的承诺,允许员工在内部和向公众提出与人工智能风险相关的担忧。

OpenAI 前员工、该运动的支持者威廉-桑德斯(William Saunders)评论说,在处理具有潜在危险的新技术时,应该有办法与独立专家、政府和公众分享风险信息。

"如今,最了解前沿人工智能系统如何运作及其部署相关风险的人并不能完全自由地发言,因为可能会遭到报复,而且保密协议过于宽泛。"

警告权原则

该提案向人工智能开发者提出了四项主要主张,首先是消除对风险的不贬低,这样公司就不会用协议让员工沉默,阻止他们提出对人工智能风险的担忧,或者因为这样做而惩罚他们。

他们还希望建立匿名举报渠道,以便个人提出有关人工智能风险的担忧,从而营造一个有利于公开批评此类风险的环境。

最后,请愿书要求保护举报人,公司不得对披露信息揭露严重人工智能风险的员工进行报复。

桑德斯说,拟议的原则是一种 "积极主动的方式",让人工智能公司参与其中,以实现所需的安全、有益的人工智能。

日益增长的人工智能安全担忧

这份请愿书是在人们对人工智能实验室 "不重视 "其最新模型安全性的担忧日益加剧之际提出的,尤其是面对人工通用智能(AGI),它试图创造出具有类似人类智能和自学能力的软件。

OpenAI 的前员工丹尼尔-科科塔伊洛(Daniel Kokotajlo)说,他决定离开这家公司,因为他 "对他们会负责任地行事失去了希望",特别是在 AGI 的创造方面。

"他们和其他人都相信了'快速行动,打破常规'的方法,而这与如此强大、如此缺乏理解的技术所需要的恰恰相反。"

5月28日,OpenAI前董事会成员海伦-托纳(Helen Toner)在泰德人工智能播客节目中表示,据报道,OpenAI首席执行官山姆-阿尔特曼(Sam Altman)因涉嫌向董事会隐瞒信息而被公司解雇。