谷歌的人工智能突破使量子计算更接近现实应用

2024-11-23 15:01:02 UTC
谷歌的人工智能突破使量子计算更接近现实应用

研究人员开发出了一种人工智能驱动的稳定量子态技术,这一突破可能使量子计算成为现实。

谷歌研究人员发现了一种新技术,它可以利用人工智能解决科学界最持久的挑战之一:更稳定的状态,从而最终使量子计算在现实生活中实用化。

在发表于《自然》(Nature)的一篇研究论文中,谷歌Deepmind公司的科学家解释说,他们的新人工智能系统AlphaQubit在纠正长期困扰量子计算机的持续性错误方面取得了显著成功。

"量子计算机有可能彻底改变药物发现、材料设计和基础物理学--也就是说,如果我们能让它们可靠地工作的话,"谷歌在公告中写道。但没有什么是完美的:量子系统异常脆弱。即使是最轻微的环境干扰--来自热量、振动、电磁场甚至宇宙射线--都会破坏它们微妙的量子态,导致错误,使计算变得不可靠。

三月份的一篇研究论文强调了这一挑战:量子计算机在实际应用中需要的错误率仅为万亿次运算中的一次(10^-12)。然而,目前的硬件每次运算的错误率在 10^-3 到 10^-2 之间,因此纠错至关重要。

"谷歌表示:"传统计算机需要数十亿年才能解决的某些问题,量子计算机只需数小时即可解决。"然而,这些新型处理器比传统处理器更容易受到噪声的影响。"

"如果我们想让量子计算机更加可靠,尤其是在大规模应用时,我们需要准确识别并纠正这些错误。"

谷歌的新人工智能系统 AlphaQubit 想要解决这个问题。该人工智能系统采用了一种复杂的神经网络架构,在识别和纠正量子错误方面表现出了前所未有的准确性,在大规模实验中,它比以往的最佳方法减少了6%的错误,比传统技术减少了30%的错误。

它还在从 17 量子比特到 241 量子比特的量子系统中保持了很高的准确性--这表明该方法可以扩展到实际量子计算所需的更大系统。

AlphaQubit 采用两阶段方法实现高精度。

系统首先在模拟量子噪声数据上进行训练,学习量子错误的一般模式,然后利用有限的实验数据适应真实的量子硬件。

这种方法使 AlphaQubit 能够处理现实世界中复杂的量子噪声效应,包括量子比特之间的串扰、泄漏(当量子比特退出计算状态时)以及不同类型错误之间的微妙关联。

不过,别太兴奋,你的车库里很快就不会有量子计算机了。

尽管 AlphaQubit 非常精确,但在实际应用之前仍面临着巨大的障碍。"研究人员指出:"快速超导量子处理器中的每个一致性检查每秒都要测量一百万次。"虽然AlphaQubit在准确识别错误方面非常出色,但它的速度仍然太慢,无法在超导处理器中实时纠错。"

Deepmind 的一位发言人告诉Decrypt:"在更大的代码距离上进行训练更具挑战性,因为示例更加复杂,而且在更大的距离上采样效率似乎更低,""这一点很重要,因为错误率与代码距离呈指数关系,所以我们预计需要解决更大的距离问题,以获得大型深度量子电路容错计算所需的超低错误率。

研究人员正将速度优化、可扩展性和集成性作为未来发展的关键领域。

人工智能和量子计算形成了一种协同关系,增强了彼此的潜力。"我们希望人工智能/ML 和量子计算仍然是相辅相成的计算方法。人工智能可以应用于其他领域,以支持容错量子计算机的开发,例如校准和编译或算法设计,"该发言人告诉Decrypt,"与此同时,人们正在研究量子数据的量子 ML 应用,以及更推测性的经典数据的量子 ML 算法。

这种融合可能代表着计算科学的一个关键转折点。随着量子计算机通过人工智能辅助纠错变得更加可靠,它们反过来又可以帮助开发更复杂的人工智能系统,从而形成一个强大的技术进步反馈回路。

承诺已久却从未兑现的实用量子计算时代可能终于要来临了--虽然还没有近到让人开始担心生化人启示录的地步。

编辑:塞巴斯蒂安-辛克莱尔

Source: decrypt.co

Related News

More News

© 2025 DeFi.io