导读:
谷歌的最新研究显示,他们将逻辑量子比特出错率降低到物理量子比特出错率之下,突破了纠错的“盈亏平衡点”。这一研究表明,容错通用量子计算机是可行的。瞿立建 | 撰文
要实现量子计算机的远大前景,一大挑战是量子比特太娇气,容易出错,而且量子比特数量越多,越容易出现错误。
美国时间12月9日,谷歌(Google)量子人工智能的研究人员联合多个合作伙伴《自然》杂志发表论文,展示了在量子纠错方面取得的重要突破:利用最新的量子芯片柳木(Willow),实现了超出量子纠错的“盈亏平衡点”的纠错能力。并且,随着量子比特数量的增多,计算错误成倍减少。[1]
“我们的结果表明,如果进行扩展,设备性能可以实现大规模容错量子算法的运行要求。”该论文写道。
加州理工学院的理论物理学家John Preskill 表示,纠错可以延长量子比特存储信息的时间,“这是一个值得注意的里程碑”[2]。
谷歌此次使用的量子纠错方法是一种叫做表面码的技术。长期致力于量子计算的中国科学技术大学教授陆朝阳告诉《赛先生》:“这是第一次通过表面码方法突破了量子纠错的‘盈亏点’:从之前的‘越纠越错’,进步到‘越纠越对’,纠错之后的‘逻辑比特’比单个“‘物理比特’质量更好了。”
但是,量子计算机为什么容易出错?
构建量子计算机第一步是构建可以表示量子比特的物理体系,这有多种方案,理论上,任何处于叠加态的粒子或处于叠加态的量子状态都可以作为量子比特,比如光子、离子阱(被囚禁的离子)、超导电路、超冷原子(接近绝对零度的原子)、半导体量子点等。方案虽多,却面临一个共同的问题:这些体系构建的量子比特所用的量子叠加态都容易被外界环境所破坏,即发生退相干。
经典计算机的比特用晶体管电流的通断来实现,涉及几十亿个电子,出错的概率很低。
为了维持量子比特,一般需要非常苛刻的环境,如超低温、高真空等。但这依然不够,需要设计特别的量子纠错码。研究最多的量子纠错码与经典纠错码很类似。
我们先看看经典计算机是怎么纠错的。
一种简单的方法在信息中添加冗余位,比如,0发送为000,1发送为111,凭空增加了两位。如果接收到000或111,说明没有错误,如果收到的信息非3个重复的数位,比如001,说明信息发送中有错误,正确的值为重复次数较多的数,即为0。具体见下表。
上面表格中,左列3个比特称为物理比特,这3个物理比特所等效为右列的1个比特,这个比特称为逻辑比特。
量子纠错码与之类似,用若干物理量子比特来编码出1个逻辑比特。不同的是,由于单个量子比特出错概率较高,因此,一个量子逻辑比特需要用更多的物理比特。比如说,按上表,3个物理比特组合成1个逻辑比特,如果有两个物理比特出错,逻辑比特将给出错误的值。用5个物理比特组合为1个逻辑比特,这可以容忍两个物理比特同时出错。
经典计算机增加比特是很容易的,但量子计算机每增加一个比特都极为不易。而且,量子比特越多,出的错也越多,结果会造成新出的错比要纠的错还多。
另外,怪异的量子性质为量子纠错带来更多困难,比如我们无法复制量子比特的量子态,不可直接测量量子比特以检查是否存在错误,因为测量本身就会使量子比特的状态发生变化。
“所有的量子比特,所有的操作,都是不完美的,用不完美去纠正不完美,需要超过一定的纠错’阈值”,做到极致的操纵水平,才能达到‘越纠越对’,不然就是‘越帮越忙’。”陆朝阳解释说。
量子纠错的概念最早在1996年由数学家彼得·秀尔(Peter Shor)提出,只要错误发生的概率低于某个阈值,量子比特的不完美操作甚至错误就可以得到纠正。后来,俄裔美国物理学家阿列克谢·基塔耶夫基于拓扑理论,发明了一种叫做表面码的技术[3]。将物理比特组合出两个重叠的网格,第一个网格中的量子比特叫做“数据”量子比特,它们共同组合成逻辑量子比特。第二个网格中的量子比特叫做“测量”量子比特,用于测量某些物理量来间接探查错误,且不干扰物理量子比特的量子态。理论学家们继续深入表面码的研究。2006年,两位研究人员确认表面码可以使量子计算的容错阈值从此前的0.01%提高到1%,从此量子计算的实用化前景一下子打开了[4]。
谷歌决定将表面码付诸实验。谷歌要做的第一项工作是,验证增多逻辑量子比特所包含的物理量子比特是否会降低错误率。2023年,他们完成了验证[5]。当时,谷歌公司用他们开发的悬铃木(Sycamore,即美国梧桐)量子芯片做了3X3(再加上8个测量量子比特,共17个量子比特)和5X5(再加上24个测量量子比特,共49个量子比特)的网格。没有办法做更大的网格,因为这款芯片只有53个量子比特。结果发现,大网格的错误率略低于小网格。确实是略低,将逻辑量子比特的出错率从3.028%降低到了2.914%。进步虽小,但令人鼓舞。
表面码网格示意图,黄色为数据量子比特,其他颜色为测量量子比特。图源:Google Research谷歌继续改进硬件。谷歌宣布将悬铃木量子芯片升级为柳木芯片,有105个量子比特,并做了3X3、5X5和7X7三种网格,发现网格每增大一步,错误率减小一半,即错误率虽网格增大而指数衰减。
更重要的是,谷歌将逻辑量子比特出错率降低到物理量子比特出错率之下,即突破了纠错的“盈亏平衡点”。
“这项研究展示了量子纠错码确实能极大压制错误,实验中纠错码的码距从5提升到7,每层错误率大约下降为原来的二分之一。他们还进一步测试了码距29的纠错码,错误率进一步下降到10^-10量级。这意味着容错量子计算的实验可行性得到验证。”北京理工大学物理学院量子技术研究中心准聘教授尹璋琦评论道。
表面码越大,逻辑量子比特出错概率越小。图源:Nature, 2024
量子计算机要走向实用,量子比特就要够多。该研究证明可以将量子计算机变大,同时使得错率指数下降。“只要设计足够大码距的纠错码,就能确保每层量子电路的错误可以下降到实用区间。”尹璋琦解释说。
根据柳木芯片的结果外推,要让错误率降到百万分之一,需要的网格大小是27X27,即需要1457个物理量子比特。目前,量子比特数最多的量子计算机来自美国原子计算(Atom Computing)公司,诞生于2023年10月,有1180个量子比特,距离1457还很远。
但是,量子比特本身的扩展本身就是极具挑战的。而且,量子计算机对于量子纠错本身,依然有很多工程上的挑战,例如对系统精准的控制,精确协调整个量子比特阵列的控制信号。量子计算机若要扩展到更多量子比特,运行更长的时间,对控制的要求只会变得更加苛刻。
值得注意的是,这个实验还显示,当加上纠错码之后等效的错误率可以下降到十的负十次方量级,再往下就饱和了。
“之所以会饱和,是因为这时关联噪声占了主导作用,而量子芯片中之所以有关联噪声,人们认为是来自于宇宙射线对它的轰击。前几年有一个实验,也证实了这一点。因此,未来要用超导量子计算机来做可靠的大规模量子计算,可能得把它放到一个几百米深的山洞里面,把宇宙射线给屏蔽掉。”尹璋琦解释说。
尽管有很多挑战,但这一研究已经表明,通用容错量子计算是可行的。
历史也让我们有理由乐观。想想经典的计算机,集成电路从几个晶体管扩展至今天上百亿个晶体管,仅仅用了不到60年的时间。
参考资料:
1.Google Quantum AI and Collaborators. Quantum error correction below the surface code threshold. Nature (2024). https://doi.org/10.1038/s41586-024-08449-y
2.https://physics.aps.org/articles/v17/176
3.A. Yu. Kitaev, “Quantum error correction with imperfect gates,” in Proceedings of the Third International Conference on Quantum Communication and Measurement, ed.O. Hirota, A. S. Holevo, and C. M. Caves (New York,Plenum, 1997).
4. https://arxiv.org/abs/quant-ph/0610082
5.Google Quantum AI. Suppressing quantum errors by scaling a surface code logical qubit. Nature 614, 676–681 (2023). https://doi.org/10.1038/s41586-022-05434-1
6.https://research.google/blog/making-quantum-error-correction-work/
7.https://www.quantamagazine.org/quantum-computers-cross-critical-error-threshold-20241209/
8.https://www.quantum-machines.co/blog/understanding-googles-quantum-error-correction-breakthrough/
合作请添加微信SxsLive2022