英国人工智能安全研究所(AI Safety Institute)将在美国设立新的分支机构,从而向国际市场拓展。
5 月 20 日,英国技术大臣米歇尔-多纳兰(Michelle Donelan)宣布,该研究所将于今年夏天在旧金山开设首个海外办事处。
公告称,旧金山办事处的战略选择将使英国能够 "利用湾区丰富的科技人才",并与位于伦敦和旧金山之间的世界上最大的人工智能(AI)实验室之一合作。
此外,它还表示,此举将有助于 "巩固 "与美国主要参与者的关系,"为了公共利益 "推动全球人工智能安全。
目前,人工智能安全研究所的伦敦分部已经拥有一支30人的团队,该团队正处于扩大规模和获取更多专业知识的轨道上,尤其是在前沿人工智能模型的风险评估方面。
多纳兰表示,这一扩张代表了英国在人工智能安全方面的领导力和愿景:
"这是英国从全球视角研究人工智能风险和潜力的关键时刻,加强了我们与美国的合作关系,并为其他国家利用我们的专业知识铺平了道路,我们将继续在人工智能安全方面引领世界。"
此前,英国于 2023 年 11 月在伦敦举行了具有里程碑意义的人工智能安全峰会。这次峰会是首次在全球范围内关注人工智能安全问题。
来自美国和中国等世界各地的领导人参加了此次活动,其中包括微软总裁布拉德-史密斯(Brad Smith)、OpenAI 首席执行官山姆-阿尔特曼(Sam Altman)、谷歌 DeepMind 首席执行官戴米斯-哈萨比斯(Demis Hassabiss)和埃隆-马斯克(Elon Musk)等人工智能领域的领军人物。
在最新的公告中,英国还表示将公布该研究所最近对五个公开的高级人工智能模型进行安全测试的部分结果。
该机构对这些模型进行了匿名处理,并表示这些结果提供了模型能力的 "快照",而不是将它们指定为 "安全 "或 "不安全"。
部分研究结果包括,有几个模型可以完成网络安全挑战,但其他模型在应对更高级的网络安全挑战时却很吃力。研究发现,一些模型拥有博士水平的化学和生物学知识。
研究得出的结论是,所有经过测试的模型都 "极易 "受到基本越狱的攻击,而且经过测试的模型无法在没有人类监督的情况下完成更 "复杂、耗时的任务"。
该研究所主席伊恩-霍格尔斯(Ian Hogearth)说,这些评估将有助于对模型能力进行实证评估。
"人工智能安全仍是一个非常年轻的新兴领域。这些结果仅代表了 AISI 正在开发的评估方法的一小部分"。