OpenAI 的萨姆-奥特曼说 AGI 是可以实现的,他是什么意思?

2025-01-07 23:47:14 UTC
OpenAI 的萨姆-奥特曼说 AGI 是可以实现的,他是什么意思?

OpenAI 的首席执行官对 2025 年的人工通用智能和人工智能代理的采用做出了大胆的宣称,但专家们并不十分信服。

山姆-奥特曼在 2025 年伊始就发表了一个大胆的宣言:OpenAI已经找到了创造人工通用智能(AGI)的方法,AGI通常被理解为人工智能系统能够理解、学习和完成人类所能完成的任何智力任务。

在上周末发表的一篇反思性博文中,他还表示,第一波人工智能代理可能会在今年加入劳动力大军,这标志着他所说的技术史上的关键时刻。

奥特曼描绘了 OpenAI 从一个默默无闻的研究实验室到一家声称即将创造出 AGI 的公司的发展历程。

虽然 ChatGPT 刚刚在一个多月前庆祝了它的两周岁生日,但 Altman 认为,能够进行复杂推理的下一代人工智能模型已经到来。

从那时起,我们要做的就是将接近人类的人工智能融入社会,直到人工智能在所有方面都胜过我们。

阿尔特曼对 AGI 含义的阐述仍然含糊不清,他对时间线的预测也引起了人工智能研究人员和行业资深人士的关注。

"阿尔特曼写道:"我们现在有信心知道如何按照我们传统的理解来构建 AGI。"我们相信,在 2025 年,我们可能会看到第一批人工智能代理'加入劳动力大军',并实质性地改变公司的产出。"

奥特曼的解释含糊不清,因为AGI并没有标准化的定义。随着人工智能模型变得越来越强大,但并不一定更有能力,因此每次都需要提高标准。

"Fetch.ai首席执行官兼人工智能联盟主席胡马云-谢赫(Humayun Sheikh)告诉解密网:"在考虑奥特曼所说的AGI级人工智能代理时,重要的是要关注AGI的定义是如何演变的。

"虽然这些系统已经可以通过许多与 AGI 相关的传统基准,例如图灵测试,但这并不意味着它们是有知觉的,"Sheikh 说。"AGI尚未达到真正的智商水平,而且我相信在相当长的一段时间内也不会达到。"

奥特曼的乐观态度与专家共识之间的脱节,让人们对他所说的 "AGI "的含义产生了疑问。他对人工智能代理在2025年 "加入劳动力大军 "的阐述听起来更像是高级自动化,而不是真正的人工通用智能。

"他写道:"超级智能工具可以大大加快科学发现和创新的速度,远远超出我们自己的能力,进而大大增加财富和繁荣。

但是,当 Altman 说 2025 年将出现 AGI 或代理集成时,他的说法正确吗?并非所有人都这么肯定。

"去中心化超级应用程序 Galxe 的联合创始人查尔斯-韦恩(Charles Wayn)告诉Decrypt:"现有的人工智能模型存在太多的错误和不一致之处,必须首先加以解决。"也就是说,要看到 AGI 级别的人工智能代理,可能只是几年而不是几十年的事情。"

一些专家怀疑阿尔特曼的大胆预测可能另有目的。

无论如何,OpenAI 一直在以天文数字的速度烧钱,需要大量的投资来维持其人工智能发展。

一些人认为,尽管公司运营成本高昂,但有望在短期内取得突破有助于维持投资者的兴趣。

这对于一个声称即将取得人类最重大技术突破的公司来说,无疑是个不小的打击。

不过,也有人支持奥特曼的说法。

"数字身份平台 SPACE ID 业务开发总监 Harrison Seletsky 告诉Decrypt:"如果山姆-奥特曼说 AGI 即将到来,那么他很可能有一些数据或商业头脑来支持这一说法。

Seletsky说,如果Altman的说法属实,而且技术在同一领域不断发展,那么 "广泛智能的人工智能代理 "可能还需要一两年的时间。

OpenAI 的首席执行官暗示,对他来说,AGI 还不够,他的公司正瞄准 ASI:人工智能发展的高级状态,即模型在所有任务中都超过人类的能力。

"我们开始将目标转向真正意义上的超级智能。我们热爱我们现有的产品,但我们在这里是为了辉煌的未来。有了超级智能,我们可以做任何其他事情,"奥特曼在博客中写道。

虽然奥特曼没有详细说明人工智能的时间框架,但有些人预计,到 2116 年,机器人可以取代所有人类。

阿尔特曼之前曾说,人工智能只是 "几千天 "的事,但预测研究所的专家认为,人工智能至少在2060年实现的可能性为50%。

知道如何实现人工智能并不等于能够实现人工智能。

Meta公司的首席人工智能研究员严乐存说,由于训练技术或处理如此大量信息所需的硬件方面的限制,人类距离达到这样一个里程碑还很遥远。

埃利泽-尤德科夫斯基(Eliezer Yudkowsky)是一位颇具影响力的人工智能研究者和哲学家,他也认为这可能是一种炒作行为,基本上是为了在短期内让 OpenAI 受益。

因此,代理行为是一种事物--不同于 AGI 或 ASI--而且人工智能代理的质量和多功能性正在以超出许多人预期的速度增长。

Crew AI、Autogen 或 LangChain 等框架使得创建具有不同能力的人工智能代理系统成为可能,包括与用户携手合作的能力。

对于普通人来说,这意味着什么?对于日常工作者来说,这究竟是危险还是福音?

专家们并不太担心。

"Fetch.ai的Sheikh说:"我不认为我们会在一夜之间看到剧烈的组织变革。"虽然人力资本可能会有所减少,特别是在重复性任务方面,但这些进步也可能会解决目前的遥控飞机系统无法处理的更复杂的重复性任务。

Seletsky 还认为,人工智能最有可能执行的是重复性任务,而不是那些需要一定程度决策的任务。

换句话说,如果人类能够发挥创造力和专业知识的优势,并承担行动的后果,那么他们就是安全的。

"他告诉《解密》:"我认为在不久的将来,决策不一定会由人工智能代理来主导,因为它们可以推理和分析,但还不具备人类的聪明才智。

至少在短期内,人们似乎达成了某种程度的共识。

"关键区别在于 AGI 的方法缺乏 "人性"。这是一种客观、数据驱动的金融研究和投资方法。Galxe 公司的韦恩说:"这有助于而不是阻碍金融决策,因为它消除了一些往往会导致草率决策的情感偏见。

专家们已经意识到采用人工智能代理可能带来的社会影响。

香港城市大学的研究认为,生成式人工智能和一般的代理必须与人类合作,而不是取代人类,这样社会才能实现健康持续的发展。

"研究论文写道:"人工智能在科技、商业、教育、医疗以及艺术和人文等各个领域既带来了挑战,也带来了机遇。"人工智能与人类的合作是应对挑战和抓住生成性人工智能创造的机遇的关键。"

尽管人类与人工智能的合作得到了推动,但企业已经开始用人类员工代替人工智能代理,结果喜忧参半。

一般来说,由于幻觉、训练限制或仅仅是缺乏对上下文的理解,他们总是需要人类来处理人工智能代理无法完成的任务。

截至 2024 年,近 25% 的首席执行官对拥有数字奴役代理农场的想法感到兴奋,这些代理可以做与人类相同的工作,而且不涉及劳动力成本。

不过,也有专家认为,人工智能代理可以更好地完成首席执行官所做的近 80% 的工作,因此没有人是真正安全的。

编辑:塞巴斯蒂安-辛克莱尔

Source: decrypt.co

Related News

More News

© 2025 DeFi.io