以太坊联合创始人维塔利克-布特尔廷(Vitalik Butertin)分享了他对 "超级智能 "人工智能的看法,称其 "有风险",以回应 OpenAI 目前的领导层变动。

5 月 19 日,据 Cointelegraph 报道,OpenAI 前调整主管 Jan Leike 辞职,原因是他与管理层在公司的核心优先事项上达到了 "断裂点"。

莱克声称,OpenAI 的 "安全文化和流程已经被闪亮的产品所取代",其中许多产品都是围绕人工通用智能(AGI)开发的。

AGI 被认为是一种与人类认知能力相当或超越人类认知能力的人工智能--业内专家已经开始担心这种想法,他们认为世界还没有适当的装备来管理这种超级智能的人工智能系统。

这种看法似乎与布特林的观点不谋而合。在 X 上的一篇文章中,他分享了自己对这一话题的看法,强调人们不应该匆忙采取行动,也不应该对那些尝试者进行反击。

资料来源维塔利克-布特林

布特林强调,在消费硬件上运行的开放模式是对未来的一种 "对冲",在未来,一个小型公司集团将能够读取和调解人类的大部分思想。

"这种模式的厄运风险也比企业巨头和军队低得多"。

这是他上周第二次就人工智能及其不断增强的能力发表评论。

5 月 16 日,Buterin 认为 OpenAI 的 GPT-4 模型通过了图灵测试,该测试决定了人工智能模型的 "人性化 "程度。他援引新的研究称,大多数人类无法判断自己何时在与机器对话。

不过,布特林并不是第一个表达这种担忧的人。英国政府最近也对大科技公司越来越多地涉足人工智能领域进行了审查,提出了与竞争和市场支配地位有关的问题。

像 6079 这样的组织已经在互联网上崭露头角,它们倡导去中心化的人工智能,以确保人工智能更加民主化,而不是由大科技公司主导。

来源:6079

5 月 14 日,OpenAI 的联合创始人兼首席科学家伊利亚-苏茨克沃(Ilya Sutskever)宣布辞职,在此之前,OpenAI 领导团队的另一名高级成员也已离职。

Sutskever 并未提及对 AGI 的任何担忧。不过,他在 X 上的一篇文章中表示,相信 OpenAI 将开发出 "安全、有益 "的 AGI。