核心摘要
谷歌的 65 量子比特处理器完成了一项复杂物理模拟,速度比 Frontier 超级计算机快 13,000 倍。
这标志着在实现实用量子优势方面,迈出了实实在在的一步。
该实验使用了一种新的“量子回波”算法,来测量一种称为二阶失序相关器的干涉效应。
它揭示了经典机器无法有效复现的量子行为。
该团队将这项工作与实际应用联系起来,包括扩展核磁共振光谱学的应用范围。
同时,这也推进了谷歌在量子计算硬件和软件突破上的双轨路线图。

谷歌量子AI报告了一项新的物理实验。
这项实验将量子计算进一步推向了研究人员所称的“超越经典”领域。
在这个领域,即便是全球最强的超级计算机也望尘莫及。
在发表于《自然》杂志的论文中,团队描述了如何使用其 65 量子比特的超导处理器,来测量一种微妙的量子干涉现象:二阶失序相关器。
若在目前排名第一的经典计算机 Frontier 上执行此计算,大约需要 3.2 年。
相比之下,谷歌的量子设备仅用了 2 个多小时,速度提升了约 13,000 倍。
团队表示,这项工作代表了朝着该领域所谓的实用量子优势迈进的又一进展。
“实用量子优势”指的是,量子计算机能产生有意义的科学数据,而经典机器在任何合理时间内都无法复现。
谷歌工程副总裁 Hartmut Neven 在关于团队发现的新闻发布会上说:
“总结‘量子回波’算法实现突破的关键特性,首先就是量子优势。
该算法在我们的 Willow 芯片上运行,比顶级经典超算上的最佳经典算法快 13,000 倍。
你可以想象一下:经典机器需要数年,而我们只需数小时。
其次,它实现了费曼的梦想——产生了可验证的预测。
重构量子混沌
该实验探索的是信息如何在复杂的量子系统中传播和干涉。
在混沌或遍历状态下,系统各组件会高度纠缠。
这导致大多数可测量值对微观细节不再敏感,物理学家称此过程为(信息)置乱。
经典计算机难以追踪这种信息扩散,因为所需参数会随量子比特数量呈指数级增长。
谷歌量子AI的首席研究科学家 Tom O’Brien 说,为了探测这些动态过程,团队使用了一种称为“回波协议”的时间反转技术。
这使他们能有效地倒带量子演化过程,测量那些本会丢失的干涉图样。
这些回波产生了失序相关器。
它实质上显示了在经历了正向和反向的时间演化后,系统的一部分对另一部分造成了多大的扰动。
O’Brien 解释说:
“‘量子回波’算法的关键创新在于,我们让一个系统在时间上前进,然后再后退。
该算法分为四步:让系统正向演化,施加一个微小的蝴蝶扰动,再让系统反向演化。
在量子计算机上,这两种演化会相互干涉。
这种干涉会产生一种波状运动,将这个蝴蝶在空间中传播开来。
它创造出一种‘蝴蝶效应’,在遥远的量子比特上也能被检测到。
而这种蝴蝶效应对你正向和反向演化的微观细节极其敏感。
根据该论文,通过测量二阶失序相关器,团队能够揭示所谓的“泡利串”之间的相长干涉。
泡利串是代表不同量子算符组合的数学术M。
这种干涉图样,只有在量子轨迹以特定方式重新组合时才会出现,它暴露了标准测量方法无法看到的信息。
这个解释可能还是太技术性了。
简单来说,研究人员在观察量子信息是如何在混沌中进出、交织的。
这是一个无法用经典工具直接可视化或计算的过程。
模拟复杂性的定量飞跃
研究小组在一个由 65 个超导量子比特组成的晶格上,使用一系列随机的单量子比特门和双量子比特门测量了这些相关器。
他们将测量结果与经典模拟方法进行了比较,包括张量网络收缩和蒙特卡洛算法。
对于 40 个量子比特的小规模实例,高端 GPU 尚可通过数天的计算来复现。
但 65 个量子比特的运行,则超出了所有有效的经典建模能力。
作者估算了复现其最大数据集所需的经典计算成本。
在 Frontier 超级计算机(一个拥有超过 9000 个 GPU 的百亿亿次级系统)上运行相同电路,将需要 3.2 年的连续运行。
相比之下,量子处理器在 2.1 小时内就产生了每个数据集,这个时间还包括了校准和读出。
这种巨大的差异使该实验稳稳地进入了“超越经典”的区域。
正如团队所写,二阶失序相关器满足了实用量子优势的两大关键标准:
它可以通过实验测量,且信噪比高于 1;
同时,它超出了精确和近似经典方法的能力范围。
让这一结果尤为突出的是它的物理相关性。
它不像早期的随机电路采样(主要用作速度测试,例如去年的 Willow 实验),OTOC 测量产生了一个具有物理解释意义的量。
这个量与纠缠、信息置乱和量子混沌直接相关。

迈向有用的量子优势
在研究的后半部分,他们将这种测量方法用于一项称为“哈密顿量学习”的任务。
也就是提取控制量子系统演化的未知参数。
在演示中,团队在一个模型系统中改变了一个相位参数,结果表明,实验性的 OTOC(2) 数据能通过简单的优化过程,精确定位其正确的值。
这个原理验证,为使用量子处理器作为真实物理系统(从磁性材料到分子结构)的诊断工具,指明了一条道路。
具体方法是:通过不断比较实验数据和量子模拟,直到找出背后潜在的哈密顿量参数。
二阶失序相关器的缓慢信号衰减和高灵敏度,使其特别适合此类学习任务。
它有潜力让研究人员表征那些传统光谱学或计算无法看清的复杂相互作用。
如果这种技术能规模化,它们可能构成实用量子模拟器的核心。
这种设备能直接从实验中学习自然规律,而非从第一性原理出发进行计算。
扩展 NMR 的探测范围
虽然这一进展看似纯粹是技术或算法上的里程碑,实际用途有限...
...但 13000 倍的加速,可能是首个与实体科学工具——核磁共振光谱学——相关联的可验证量子算法。
它有潜力扩展核磁共振(NMR)的测量范围,并直接用实验数据来验证量子预测。
在发布会上,谷歌量子AI的研究人员还展示了“量子回波”算法的底层技术(即前向-后向时间演化技术)...
...如何能够扩展核磁共振光谱学的能力。这是化学和材料科学中最成熟的工具之一。
传统 NMR 技术通过测量原子核间的磁相互作用来推断分子结构。
但其灵敏度随距离急剧下降,限制了两个自旋在仍能产生可测信号下的最大距离。
通过应用“量子回波”来模拟这些偶极相互作用...
...团队展示了量子处理器如何模拟弱信号在分子中的传播,有效创造出他们所称的“更长的分子标尺”。
在发布会上,O’Brien 将该方法描述为“NMR 的新工具”,并补充说,该方法使研究人员能够“看到相距更远的自旋对之间的信息”。
扩展 NMR 范围的能力,可能对生物化学、药物设计和凝聚态物理产生深远影响。
在这些领域中,复杂分子或材料的几何结构决定了它们的特性。
谷歌首席科学家、诺贝尔奖得主 Michel Devoret 指出,该算法还可作为一种反演方法:
“看待这个新算法的一个角度是:Hartmut 说算法的结果可被验证,可与 NMR 数据比较。
但你其实可以反过来看。
你可以说,这个算法其实是一种反演方法。
你从 NMR 实验中获取数据——这是对自然、对一个分子的探测——然后反演这些数据。
从而揭示用其他方法不可能知道的结构。未来,这甚至可以应用于量子传感。
从这个意义上说,这项工作不仅测试了量子力学...
...它还指向了量子计算和量子传感之间的一种共生关系:一个模拟和测量相互完善的反馈循环。
尽管 NMR 的演示仍未达到“超越经典”的门槛...
...但它代表了使用量子处理器直接分析实验数据的第一步。
正如 O’Brien 所说,为一个有着 80 年历史、“斩获多个诺贝尔奖”的领域添加一种新的计算技术,其本身就是一个有意义的里程碑。
局限性与注意事项
团队很谨慎,并未声称实现了完全通用的量子优势。
13000 倍这个数字虽然惊人,但它特定于此类基于干涉的测量,并假定经典模拟是在 Frontier 的现有架构上通过张量网络收缩进行的。
经典算法在不断改进,其他模拟策略也可能会缩小某些问题上的差距。
该实验还依赖于精心优化的电路和广泛的错误缓解技术。
该量子设备的双量子比特门错误率中位数为 0.15%,在 40 个电路周期时,整体系统保真度为 0.001。
以当今的标准看,这已令人印象深刻,但仍未达到容错计算所需的阈值。
测得的信噪比虽然高于 1,但仍属中等(最大系统介于 2 和 3 之间)。
这意味着数据在统计上是有意义的,但并不能完全免受噪声或漂移的影响。
另一个需要注意的是对结果的解读。
失序相关器是捕捉量子混沌某些方面的数学构造,其与技术应用的直接联系仍在探索中。
从测量 OTOC 到加速材料发现或化学设计,这条路还需要跨越几个概念上的台阶。
尽管如此,作为对大规模量子控制和测量的测试,该实验标志着技术成熟度达到了一个新水平。
在 65 个量子比特上实现可靠的回波序列和精确的时间反转,表明谷歌正朝着更实用工作负载所需的高保真度稳步迈进。
下一步是什么?
未来的工作可能会集中在使用类似的回波协议,来探索其他的多体现象。
例如相变、临界性和热化动力学。
作者指出,更高阶的相关器(超越二阶)可能会揭示更丰富的干涉效应,但这需要更高的相干性和校准精度。
未来的工作还可以将哈密顿量学习方法应用于固态 NMR 系统,在这些系统中自旋耦合可以被部分反转。
这可能成为连接量子硬件实验和真实实验室材料的桥梁。
从计算角度看,下一个里程碑是将这些基于物理的演示整合到与应用相关的模拟中。
如果未来的量子设备能将 OTOC 类型的测量,直接映射到能量如何在材料中流动、粒子或信号如何传播以及化学反应如何展开...
...它们就将满足实用优势的最终标准:
产生经典超级计算机无法产生,但能直接推动科学或工程发展的信息。
目前,“13000 倍”这个数字既是谷歌量子路线图上的一个里程碑,也可能是一个警示。
它表明,量子硬件不再只是追赶经典计算——它正在特定的、具有物理意义的任务上超越经典计算。
同时,它也向经典计算社区发出了挑战,要求他们开发更高效的模拟方法,以确保两个领域的前沿之争保持动态,而非一成不变。

衡量谷歌在实用量子计算路线图上的进展
放大来看,团队表示,这个里程碑是衡量谷歌量子AI在其六阶段路线图上是否取得进展的一种方式。
该路线图描绘了公司从当今的含噪声量子设备时代,到最终实现可用于实际目的、可用的纠错量子系统的征程。
该路线图将进展分为两个平行轨道:
硬件轨道:专注于构建逻辑上可靠的量子比特,并扩大机器规模。
软件轨道:寻求能在真实场景下提供清晰、可衡量优势的算法。
按照 Neven 的说法,团队已通过了前两个硬件里程碑——2019 年实现量子霸权和近期在量子纠错上的进展。
而当前的工作,标志着他们在软件轨道上的首次胜利。
Neven 说道:
“现在大家对‘量子回波’算法及其应用有了初步了解,就会明白我们为何保持乐观。
我们相信,五年内将看到只能在量子计算机上实现的真实世界应用,比如量子增强传感。
当然,这个路线图有硬件轨道,也有软件轨道。
我们在硬件方面已实现了前两个里程碑:演示了量子霸权,然后是量子纠错。
而今天你们所看到的,是软件轨道上的一个里程碑——首个具有可验证量子优势的算法演示。
因此,如果一切顺利,这个实验让我们得以一窥未来。
例如,在短期内(按 Neven 的预测是未来五年),我们应会看到量子增强传感、先进的模拟-混合工作流,以及提供经典机器无法获得的独特见解的算法。
展望未来,要实现更长远的目标,就需要构建大规模的容错处理器。
在这类处理器上,错误率被抑制到极低水平,足以支持长时间的算法运行和解决真实世界规模的问题。
这种双轨并进的策略,也解释了为什么 NMR 应用和基于 OTOC 的测量如此引人注目:
它们代表了软件轨道上的突破,并直接与实验科学相连,桥接了硬件能力与实用价值。
这是一个微妙但至关重要的战略举措。
谷歌的目标不只是运行更大的芯片,更是要证明,当量子硬件与正确的算法相结合时,它能成为一种强大的科学工具。
随着谷歌的推进,路线图要求的不仅是更多的量子比特或更低的错误率...
...更是整合性的进展:更好的量子比特、更智能的算法,以及精心构建的、经典机器无法有效应对的问题领域。
一键三连「