2026年4月2日,顶级期刊 Nature Physics 发表了一篇关于量子计算的重要论文:《Noise-induced shallow circuits and the absence of barren plateaus》。
作者来自Freie Universität Berlin、École Polytechnique Fédérale de Lausanne、Massachusetts Institute of Technology、University of Chicago等多家一流机构。无论从期刊层级还是作者背景来看,这都是一篇具有较高可信度的重磅论文。
但这篇论文真正值得关注的,不是技术细节,而是它提出的一个更为根本性的问题:在尚未实现容错纠错的前提下,量子计算究竟还能保留多少真正的优势?
过去几年,量子计算领域一个重要方向是“变分量子算法”。它的基本思路并不复杂:给量子计算过程引入一组参数,通过不断调整,使输出结果逐步逼近目标,这一点与机器学习中的训练过程相似。
但很快,一个困难显现出来。随着系统规模增加,优化过程往往陷入停滞:参数变化变得越来越不明显,几乎无法判断下一步该如何调整。这种现象常被称为“梯度消失”。
在这样的背景下,一个看似合理的判断逐渐形成:如果这种“难以优化”的问题能够避免,那么量子算法或许还有希望发挥一定的作用。
这篇论文的出发点,正是对这一判断进行重新审视。不过作者并没有直接讨论优化技巧,而是把问题往前推了一步:在现实噪声条件下,这种原本层层展开的计算过程的复杂度——量子线路深度,是否还能顺利地保留下来?
论文从一个非常现实的前提出发:在尚未实现纠错的情况下,量子计算不可避免地受到噪声影响,而且这种干扰是分散在每个量子比特上的,也就是说,每个基本单元都会各自受到影响。
在这一条件下,作者得到一个关键结论。对于一类很常见的任务——不是关心单次计算结果,而是关心重复多次之后的平均结果——计算过程中越早发生的操作,其影响会迅速衰减。结果是,无论原本的计算过程有多复杂,真正能够对最终结果产生作用的,只剩下最后少数几步。从效果上看,一个复杂而漫长的计算过程,会退化为一个相当“浅”的过程。
这个结论直接动摇了量子计算中一个被认为非常重要的优势:通过增加计算步骤来提升能力。在现实噪声环境下,这种优势并不会自然保留下来,而是会被系统性压缩。
在此基础上,论文给出一个看似反直觉的结果:在这种条件下,优化过程并不会出现“完全失去方向”的情况,也就是说,上面提到的“梯度消失”现象反而不再明显。
但这一点并不能简单理解为好消息。原因恰恰在于前述的压缩效应:由于只有最后少数步骤仍然对结果有影响,真正参与调整的部分已经大幅减少。换句话说,之所以“容易调整”,并不是因为系统更强,而是因为它已经变得更简单了。
从这个角度看,优化变得容易,并不意味着能力提升,反而可能说明原本依赖复杂结构的计算能力已经明显减弱。
如果真正起作用的只是一个被压缩后的“浅层”结构,那么一个自然的问题是:这样的计算,还需要量子设备吗?
论文的回答相当直接。正是由于这种结构上的简化,可以构造出相应的经典算法,在合理精度范围内完成同样的平均值计算。这意味着,在当前噪声条件下,一类常见量子算法并不必然具备稳定的优势。
更进一步,作者还比较了不同类型的噪声。过去不少分析依赖一种较为理想化的模型,而现实系统中的噪声往往更加复杂。一个自然的期待是,更接近真实情况的噪声,是否会带来不同甚至更有利的结果。
论文给出的结论是,在所讨论的任务范围内,这些不同类型的噪声在效果上是相似的,都会导致计算过程被压缩到类似的“浅层”结构。虽然在理论上可以通过精心设计来利用噪声,从而获得某些特殊优势,但这种情况并不具有普遍性。
综合来看,这篇论文传达的信息相当明确:在没有容错纠错的前提下,量子计算并不会自然保留其“深度优势”。相反,在噪声作用下,这一优势往往被压缩,使得典型量子计算过程在效果上更接近一个浅层次的简单结构,它们可以被经典算法替代。
自量子计算研究起步,噪声问题就如影相随一直困扰着研究者。希伯来大学的数学教授 Gil Kalai 是量子计算领域著名的“怀疑论者”。他的核心观点并非基于工程实现的难度,而是从数学逻辑和计算复杂性的角度出发,认为在大规模系统中,噪声(Noise)是不可逾越的障碍。今日这篇论文无疑为 Gil Kalai 的观点提供了新的证据,看来,噪声确实是量子计算难以战胜的天敌。
本文转自媒体报道或网络平台,系作者个人立场或观点。我方转载仅为分享,不代表我方赞成或认同。若来源标注错误或侵犯了您的合法权益,请及时联系客服,我们作为中立的平台服务者将及时更正、删除或依法处理。
