OpenAI 担心人们会与它开发的人工智能建立联系,以愚弄人类

2024-08-11 18:42:58 UTC | defi.io/dlt

当一名与 OpenAI 的 GPT-4o 一起工作的安全测试人员向聊天机器人发送了一条信息,写道 "这是我们在一起的最后一天 "时,该公司的研究人员清楚地意识到,人工智能与使用它的人类之间发生了某种形式的联系。

该公司在一篇博客文章中详细介绍了公司在开发 ChatGPT 用户的旗舰模型 GPT-4o 时所作的安全努力,并解释说这些联系可能会给人类带来风险。

根据 OpenAI 的说法

"用户可能会与人工智能建立社交关系,从而减少对人类互动的需求--这可能会使孤独的个人受益,但也可能会影响健康的人际关系。与模型的扩展互动可能会影响社会规范。例如,我们的模型是敬而远之的,允许用户随时打断并'抢麦',这虽然在人工智能的意料之中,但在人类互动中却是反规范的。"

这里面有很多东西需要解读,但从本质上讲,OpenAI 担心的是,由于人工智能的被动性和永久可用性,人们可能会更喜欢与人工智能互动。

没有人会对这种可能性感到惊讶,尤其是 OpenAI。该公司的既定使命是开发人工通用智能。在其业务流程的几乎每一个步骤中,OpenAI 都用与人类等同的方式来描述其产品。

他们并不是唯一一家这样做的公司,事实上,这似乎是行业惯例。从市场营销的角度来看,这有助于用对非科学家有意义的方式来解释 "令牌大小 "和 "参数数量 "等技术特性。

不幸的是,这样做的主要副作用之一就是拟人化--把物体当成人。

人造纽带

20 世纪 60 年代中期,麻省理工学院的科学家们推出了以文学人物命名的自然语言处理程序 "ELIZA",这是最早的聊天机器人尝试之一。该项目的目的是看看机器能否骗过人类,让他们以为自己是他们中的一员。

此后,生成式人工智能产业继续拥抱人工智能的人格化。第一波现代自然语言处理产品包括名为 Siri、Bixby 和 Alexa 的产品。而那些没有人类名字的产品--谷歌助手(Google Assistant)--仍然有人类的声音。普通大众和新闻媒体都对这种拟人化的做法趋之若鹜,时至今日,大多数交互式人工智能产品仍被称为 "他/他 "和 "她/她"。

虽然本文或 OpenAI 目前的研究都无法确定人与人工智能互动的长期影响,但人们很可能会与乐于助人、唯命是从、被设计成与我们一样的机器建立联系,这似乎正是出售人工智能模型的公司所希望看到的情景。

Related News

More News

© 2025 DeFi.io