人工智能公司OpenAI透露,它已发现并中断了几个利用其技术操纵全球舆论的在线活动。

5月30日,人工智能公司OpenAI创始人萨姆-阿尔特曼(Sam Altman)表示,该公司已经 "终止了与秘密影响力行动有关的账户"。

"在过去的三个月里,我们已经破坏了五个秘密的 IO [影响力行动],这些行动试图利用我们的模型来支持整个互联网上的欺骗活动"。

这些不良行为者利用人工智能为文章生成评论,为社交媒体账户创建名称和简历,以及翻译和校对文本。

ChatGPT 背后的公司表示,一个名为 "Spamouflage "的行动使用 OpenAI 研究社交媒体,并在 X、Medium 和 Blogspot 等平台上生成多语言内容,试图 "操纵公众舆论或影响政治结果"。

它还利用人工智能调试代码,管理数据库和网站。

由 Spamouflage 账户之一生成的虚假 AI 帖子。来源:OpenAI来源:OpenAI

此外,一个名为 "Bad Grammar "的行动针对乌克兰、摩尔多瓦、波罗的海国家和美国,使用 OpenAI 模型运行 Telegram 机器人并生成政治评论。

另一个名为 "二重身"(Doppelganger)的组织使用人工智能模型生成英语、法语、德语、意大利语和波兰语的评论,发布在 X 和 9GAG 上,目的也是操纵舆论。

在 9GAG 的 "汽车 "频道上发布的关于乌克兰的评论和关于加沙的视频。来源:OpenAI来源:OpenAI

OpenAI 还提到一个名为 "国际虚拟媒体联盟"(International Union of Virtual Media)的组织,该组织利用该技术生成长篇文章、标题和网站内容,发布在其链接的网站上。

OpenAI 表示,它还破坏了一家名为 STOIC 的商业公司,该公司利用 AI 在 Instagram、Facebook、X 等社交媒体平台以及与该行动相关的网站上生成文章和评论。

OpenAI 解释说,这些不同行动发布的内容集中在一系列广泛的问题上:

"包括俄罗斯入侵乌克兰、加沙冲突、印度大选、欧美政治以及中国异见人士和外国政府对中国政府的批评"。

"我们的案例研究提供了一些目前最广泛报道、持续时间最长的影响力活动的例子,"撰写该报告的 OpenAI 首席调查员本-尼莫(Ben Nimmo)告诉《纽约时报》。

该媒体还报道称,这是一家大型人工智能公司首次披露其特定工具是如何被用于网络欺骗的。

"到目前为止,这些行动似乎并没有因为我们的服务而有意义地提高了受众的参与度或影响力,"OpenAI总结道。