一群人工智能科学家正在敦促各国建立一个全球监督系统,以防止人类一旦失去对人工智能的控制可能造成的 "灾难性后果"。
在9月16日发表的一份声明中,一群有影响力的人工智能科学家提出了这样的担忧:如果人类失去控制,他们帮助开发的技术可能会造成严重伤害。
"人类失去控制或恶意使用这些人工智能系统可能会给全人类带来灾难性的后果,"声明在继续之前写道:
"不幸的是,我们尚未发展出必要的科学来控制和保障这种先进智能的使用。"
科学家们一致认为,各国需要建立权威机构,在其管辖范围内检测和应对人工智能事件和灾难性风险,并需要制定 "全球应急计划"。
"从长远来看,各国应制定国际治理制度,以防止开发出可能带来全球灾难性风险的模型。"
该声明基于9月初在威尼斯举行的人工智能安全问题国际对话的结论,这是由美国非营利研究组织 "安全人工智能论坛"(Safe AI Forum)组织的第三次此类会议。
约翰-霍普金斯大学教授吉莉安-哈德菲尔德(Gillian Hadfield)在X网站上发文分享了这份声明,她说:"如果我们在六个月后遭遇某种灾难,如果我们真的检测到有模型开始自主自我完善,你会找谁?"
资料来源吉莉安-哈德菲尔德
他们表示,人工智能安全是公认的全球公共利益,需要国际合作和治理。
人工智能开发者提出了三个关键流程:应急准备协议和机构、安全保证框架以及独立的全球人工智能安全和验证研究。
相关内容 埃隆-马斯克表示支持全面的人工智能安全法规
这份声明有来自美国、加拿大、中国、英国、新加坡和其他国家的 30 多个签署方。他们包括来自领先的人工智能研究机构和大学的专家,以及几位图灵奖(相当于计算机领域的诺贝尔奖)获得者。
科学家们表示,由于超级大国之间的科学交流日益减少,美国和中国之间的不信任日益加剧,这增加了就人工智能威胁达成共识的难度,因此对话很有必要。
9 月初,美国、欧盟和英国签署了世界上首个具有法律约束力的国际人工智能条约,将人权和问责制作为人工智能监管的优先事项。
然而,科技公司和高管们表示,过度监管可能会扼杀创新,尤其是在欧盟。
杂志: 台湾的人工智能无人机 "地狱景观 "计划,法学硕士太笨毁灭人类:人工智能之眼
© 2025 DeFi.io