专栏名称: 环球科学
《科学美国人》独家授权中文版—《环球科学》杂志—www.huanqiukexue.com
目录
51好读  ›  专栏  ›  环球科学

了不起的突破!谷歌Willow量子芯片实现纠错“里程碑”,5分钟=超级计算机100000000000000000000…年

环球科学  · 公众号  · 科学  · 2024-12-25 22:18

主要观点总结

谷歌量子计算部门的新芯片实现了量子计算的“低于阈值”,这意味着随着量子计算机规模的扩大,其准确率也将上升。这一重要里程碑有助于提升量子计算机的精度,走向实际应用。该研究发现,使用正确的纠错技术,量子计算机的精准度可以随规模扩展而递增,这一提升率会超过一个关键阈值。尽管仍存在挑战,如构建稳健的逻辑量子比特并将许多逻辑量子比特连成网络,但这一成果被视为量子计算领域的一个临界点,标志着激动人心的时刻。

关键观点总结

关键观点1: 谷歌量子计算部门的新芯片实现了“低于阈值”的量子计算,意味着量子计算机的精度提升。

这个成果是通过对信息量子比特进行分布到多个物理量子比特的方式实现的,通过纠错技术降低错误率。这项技术的成功演示证明了逻辑量子比特大小的每次递增都能将错误率减半。

关键观点2: 该成果代表了量子计算领域的一个临界点,是激动人心的时刻。

尽管还存在挑战,如构建稳健的逻辑量子比特和将许多逻辑量子比特连成网络,但这一里程碑式的成果被视为量子计算走向商业实用化的关键步骤。

关键观点3: 这一突破展示了量子纠错的潜力,是量子计算的终极阶段。

研究人员表示,纠错是量子计算的终极阶段,目前实现了一个较低的错误率,这是向具有商业实用价值的量子计算机迈进的重大进展。


正文


原文作者:Davide Castelvecchi

重大纠错成果表明,随着量子计算机规模的扩大,其准确率也将上升。

谷歌量子计算部门的一个低温箱。来源:Google Quantum AI

谷歌(Google)研究人员构建的一种芯片首次演示了“低于阈值”的量子计算——这个关键里程碑有助于提升量子计算机的精度,走向实际应用。


该研究12月9日发表于《自然》[1]。研究表明,只要使用正确的纠错技术,量子计算机就能执行精准度随规模扩展而递增的计算——这种提升率会超过一个关键阈值。对于大部分商业或科学用途来说,当前的量子计算机规模太小,太容易出错。


“这是我们努力了30年的一个目标。”谷歌加州山景城总部的研究科学家Michael Newman在宣布这一重大成果的发布会上表示。这个成果意味着,在2030年前,对于人们所能想到的最强大的经典计算机,量子计算能做出这些经典计算机无法完成的科学发现,谷歌量子计算部门的首席运营官Charina Chou表示。Newman补充道,“这就是为何我们现在要建造这些计算机。”


中国科学技术大学上海研究院的量子物理学家陆朝阳说:“这项研究是一次真正了不起的技术突破。”

脆弱态

量子计算机用表示一个0或一个1的态(类似普通计算机的比特)编码信息,但也能用多个0和1的无限可能组合编码信息。不过,众所周知,这些量子信息态非常脆弱,谷歌量子硬件部的物理学家Julian Kelly说,为了让量子计算机执行有用的计算,“你需要量子信息,你要保护它不受环境干扰,还要保护它不受我们的影响,因为我们会操纵它们。”


如果没有这种保护,量子计算就无从谈起。为此,理论学家从1995年开始设计各种巧妙方案,让一个信息量子比特分布到多个“物理”量子比特。由此得到的“逻辑量子比特”能抵抗噪音——至少理论上可以。对于这种被称为“量子纠错”的技术,如要在现实中运作,就必须证明这种将信息分布到多个量子比特的做法能稳健地降低错误率。


过去几年里,IBM和亚马逊AWS等多家公司以及学术团队证明,纠错能小幅提升精准度[2,3,4]。谷歌2023年初发表了用“悬铃木”(Sycamore)量子处理器的49个量子比特得到的结果[2],该处理器将每个物理量子比特编码在一个超导电路中。


谷歌的新芯片名为Willow,是该技术的一个更大、更先进的版本,有105个物理量子比特。该芯片由谷歌2021年在加州圣塔芭芭拉的量子计算分部建造的一个制造实验室开发。


作为对Willow性能的首次演示,研究团队证明该芯片能在约5分钟内完成全球最大超级计算机需要1025年才能完成的任务,谷歌量子计算部门负责人Hartmut Neven说道。这是为证明量子计算机拥有超越经典计算机优越性的最近一次重大胜利。


而且,谷歌团队通过在Willow内部创建逻辑量子比特,证明了逻辑量子比特大小的每次递增都能将错误率减半。


“这是对完全低于阈值的一次令人印象深刻的演示。”荷兰代尔夫特理工大学量子纠错专家Barbara Terhal说道。哈佛大学物理学家Mikhail Lukin也表示,“这充分说明这个想法是行得通的。”

量子计算终极阶段

Kelly说,该团队的结果还表明,这种纠错率的提升是可持续的,能让未来的量子芯片实现每一千万步一个错误。一般来说,研究人员将这种程度的精度视为量子计算机具有商业实用价值的关键。“纠错是量子计算的终极阶段,”他说,“这就是所有人梦想使用的量子计算机。”


根据谷歌的估算,实现这么低的错误率需要每个逻辑量子比特都由1000个左右的物理量子比特组成,不过未来纠错技术的改进或将这个“开销”(overhead)降低到200个量子比特,Newman说道。IBM和其他实验室的研究人员也利用更少的量子比特取得了巨大进展[2]。这说明,量子计算领域已经走到了一个临界点,Lukin说,“现在确实是激动人心的时刻。”


尽管如此,挑战依然存在,Terhal说。除了构建稳健的逻辑量子比特,研究人员还需要将许多逻辑量子比特连成网络,以便它们能共享和交换量子态。


加州理工学院的理论物理学家John Preskill帮助建立了量子纠错理论。他说,证明纠错方案能保存量子比特中的信息很重要,但纠正计算错误更重要。同样与AWS量子计算实验开展合作的Preskill说,“我们想做受保护的量子比特运算,而不仅仅是存储。”

参考文献:

1. Google Quantum AI and Collaborators. Nature https://doi.org/10.1038/s41586-024-08449-y (2024).

2. Bravyi, S. et al. Nature 627, 778–782 (2024).

3. Putterman, H. et al. https://arxiv.org/abs/2409.13025 (2024).

4. Sivak, V. V. et al. Nature 616, 50–55 (2023).

5. Google Quantum AI. Nature 614, 676–681 (2023).


原文以‘A truly remarkable breakthrough’: Google’s new quantum chip achieves accuracy milestone标题发表在2024年12月9日《自然》的新闻版块上

© nature

Doi: 10.1038/d41586-024-04028-3

点击阅读原文查看英文原文



版权声明:

本文由施普林格·自然上海办公室负责翻译。中文内容仅供参考,一切内容以英文原版为准。欢迎转发至朋友圈,如需转载,请邮件[email protected]。未经授权的翻译是侵权行为,版权方将保留追究法律责任的权利。

© 2024 Springer Nature Limited. All Rights Reserved



本文转载自公众号“自然系列”
凡本公众号转载、引用的文章 、图片、音频、视频文件等资料的版权归版权所有人所有,因此产生相关后果,由版权所有人、原始发布者和内容提供者承担,如有侵权请联系删除。


点击【在看】,及时接收我们的内容更新