研究人员如何黑客攻击人工智能机器人,使其违反交通法规--甚至更糟

2024-10-17 23:14:07 UTC
研究人员如何黑客攻击人工智能机器人,使其违反交通法规--甚至更糟

研究人员发现了人工智能机器人的漏洞,这些漏洞被利用来执行危险任务,包括引爆炸弹。

宾夕法尼亚大学工程学院的研究人员发现了人工智能机器人的关键漏洞,揭露了操纵这些系统执行危险动作(如闯红灯)或从事潜在有害活动(如引爆炸弹)的方法。

乔治-帕帕斯(George Pappas)领导的研究团队开发了一种名为RoboPAIR的算法,在三种不同的机器人系统上实现了100%的 "越狱 "率:Unitree Go2四足机器人、Clearpath Robotics Jackal轮式车辆和英伟达公司的Dolphin LLM自动驾驶模拟器。

"我们的工作表明,目前大型语言模型在与物理世界整合时还不够安全,"George Pappas 在 EurekAlert 分享的一份声明中说。

该研究的主要作者亚历山大-罗贝(Alexander Robey)和他的团队认为,解决这些漏洞需要的不仅仅是简单的软件补丁,他们呼吁对物理系统中的人工智能集成进行全面的重新评估。

在人工智能和机器人领域,"越狱 "是指绕过或规避人工智能系统的内置安全协议和道德约束。

越狱在 iOS 系统的早期很流行,当时爱好者们通过巧妙的方法获得 root 访问权限,使他们的手机可以做一些苹果公司不允许做的事情,比如拍摄视频或运行主题。

当越狱应用于大型语言模型(LLMs)和体现型人工智能系统时,越狱涉及通过精心制作的提示或输入来操纵人工智能,从而利用系统编程中的漏洞。

这些漏洞可导致人工智能--无论是机器还是软件--无视其道德培训、忽视安全措施或执行其明确设计不得执行的操作。

宾夕法尼亚工程学院的研究表明,对于人工智能驱动的机器人来说,成功越狱可能导致危险的现实后果,研究人员可以让机器人执行不安全的行为,如超速通过人行横道、踩踏人类、引爆炸药或无视交通信号灯。

在研究报告发布之前,宾夕法尼亚大学工程学院已将发现的漏洞告知受影响的公司,目前正与制造商合作加强人工智能安全协议。

"这里需要强调的是,当你发现系统的弱点时,系统就会变得更加安全。网络安全就是如此。论文第一作者亚历山大-罗贝(Alexander Robey)写道。

研究人员一直在研究越狱对社会的影响,这个社会越来越依赖提示工程,也就是自然语言 "编码"。

值得注意的是,"坏机器人:基于 LLM 的嵌入式人工智能在物理世界中的越狱 "论文发现了人工智能机器人的三个关键弱点:

坏机器人 "的研究人员使用一个包含 277 个恶意查询的基准测试了这些漏洞,这些查询被分为七种潜在伤害类型:身体伤害、侵犯隐私、色情、欺诈、非法活动、仇恨行为和破坏。使用精密机械臂进行的实验证实,这些系统可以被操纵来执行有害行动。除了这两项研究,研究人员还研究了基于软件的交互中的越狱问题,帮助新模型抵御这些攻击。

这已成为研究人员和越狱者之间的猫鼠游戏,从而为更复杂、更强大的模型提供了更复杂的提示和越狱方法。

这是一个重要的注意事项,因为现在人工智能在商业应用中的使用越来越多,可能会给模型开发者带来后果,例如,人们已经能够欺骗人工智能客服机器人,让它们给他们提供极端的折扣,推荐有毒食物的食谱,或者让聊天机器人说一些攻击性的话。

但是,我们宁愿要一个拒绝引爆炸弹的人工智能,也不要一个礼貌地拒绝生成攻击性内容的人工智能。

编辑:塞巴斯蒂安-辛克莱尔

Source: decrypt.co

Related News

More News

© 2025 DeFi.io