今天,简中自媒体被一篇Google量子计算芯片Willow相关的科研论文刷屏了,标题是《Quantum Error Correction Below the Surface Code Threshold》。这篇文章激发了广泛的讨论,甚至有激进观点预测,20年后Nvidia的终端价值(terminal value)可能会变成零。这种观点听着刺激,但未免有些夸张。作为曾经研究过相关领域的人,我也特意看了这篇论文,总体感觉是:科研价值确实很高,但要说量子计算马上取代Nvidia,恐怕还言之过早。
科研价值:Willow是量子计算领域的里程碑
从科研角度看,这篇论文的潜在意义确实“非常非常高”。自2014年成立Quantum AI实验室以来,Google就一直致力于推动量子计算从理论走向实际应用。这十年间,他们在超导量子比特硬件研发方面取得了一系列突破,为量子计算奠定了实验基础。然而,量子计算最大的难题之一是噪声问题:无论是温度、磁场,还是宇宙辐射,都会干扰量子比特的表现,导致计算结果偏差。这也是当前量子计算面临的主要技术瓶颈。
更重要的是,通常情况下,量子比特数量越多,错误率也会随之增加。然而,Willow芯片却实现了一个颠覆性的突破——随着量子比特数量的增加,
逻辑错误率反而呈指数级下降!
Google通过一系列硬件和系统优化,例如延长量子比特的退相干时间、优化解码算法(包括神经网络和实时解码器)、以及分析稀有错误来源,进一步利用表面码(surface code)来抑制逻辑错误。研究中,他们还展示了实时解码器如何在快速循环中实现高效纠错。最终,Willow系统的容错能力得到了显著提高,
可以说是第一次证明了量子计算在概念上是“可用的”。
如果要找一个类比,Google 2018年至2024年的一系列研究工作,或许可以被视为量子计算领域的“晶体管发明时刻”,在理论上开辟了未来产业化的可能性。具体有几个非常大的进步:
-
qubit life time从20us 提高到了100us
-
证明了error correction的可行性,更大的系统,更多的redundancy的确降低了error rate,并且提高了logical qubit的life time
-
证明了tunable coupler的有效性,直接的理解是,可以提高qubit的yield,造出来时候不好,但是可以tune得更好
-
用以上几个进步,做了更大更深的random circuit sampling这个task,比classical的best case快了10^25倍;但是这个task本身没有application
距离实用化还有很长的路
不过,科研的突破与实际应用之间总是有一段很长的路要走。虽然这项研究验证了容错量子计算的可行性,但要真正实现实用化,仍需要多年甚至几十年的技术积累和硬件优化。例如,这次研究的处理器只有105个量子比特,而实现许多实际应用需要上千甚至上百万个量子比特。此外,这篇论文展示的任务仍属于“量子入门级”问题(比如Sampling),与实际问题(如因数分解)还有相当大的差距。
其实这篇论文自己都通过这张图说明了目前没有commercial value,然后指出了之后的方向
从乐观角度看,研究量子计算的人总是自嘲,量子计算离大规模量产还有50年,但现在这49年的倒计时可能终于开始了。
Nvidia的潜在角色
最后,不得不提Nvidia的量子计算布局。在Bill Dally的领导下,Nvidia的量子研究团队规模已达到100至200人,堪称目前全球产业界最强大的团队之一。结合Nvidia在AI领域的成功,手握充足的资金和硬件研发能力,他们对量子计算的投入也极为可观。
未来,倘若量子计算真的提前到来,谁最有可能推动量子计算的商业化?很可能还是Nvidia。
欢迎加入共识粉碎机活动群,我们会定期发布内容和活动
我们正在发售两篇报告,其内容是:
大模型进展如何改变光通信格局,以及CPO和OIO影响