|
谷歌当地时间周三在《自然》杂志披露与Willow芯片相关的量子计算突破性研究成果![img][/img] 他们全新的量子回声(Quantum Echoes ) 算法在 Willow 芯片上运行,解决原子相互作用问题的速度比最好的传统超级计算机快 13000 倍,在2.1小时内完成了需要 Frontier 超级计算机大约 3.2 年才能完成的计算。 更令人称奇的是,其结果是可验证的,可以说这是量子计算机首次能够在真实硬件上成功运行可验证的算法。相关研究登上 Nature 封面。  这项工作涉及谷歌量子 AI 团队的许多成员,以及谷歌 DeepMind 和加州大学伯克利分校、达特茅斯学院等研究者,总计超过200位作者参与了这项研究。值得一提的是,新晋诺奖得主、现任谷歌量子 AI 实验室硬件首席科学家 Michel Devoret 也参与其中。  量子回声算法 一种可验证的量子优势 量子计算机的核心就是一种 “量子多体系统”(比如一堆纠缠的量子比特),但研究它有个大问题: 随着时间演化,量子信息会快速扩散到整个系统中,这种现象被称为”信息加扰”(scrambling)。 这时候再想通过常规方法,比如 “时序关联函数”(TOC)观察它的细节,信号会指数级消失,严重限制了人们探测量子信息的能力。  为了解决这个问题,谷歌团队提出“量子回声”算法: 先让系统正向演化,然后施加一个操作,再反向演化,如此反复。模拟时间倒流,把已经扩散的量子信息重新聚焦回来。 这次研究的主角 “非时序关联函数”(OTOC),就是这种思路的升级,它能把量子系统里不同 “演化路径” 的信号叠在一起,放大有用信息、抵消杂音。[img][/img][img][/img] 研究团队用超导量子处理器(最多用到 65 个量子比特)做了两类关键实验,得出两个核心结论: 第一,OTOC能长时间观测量子系统的细节,比传统方法强太多 传统的TOC信号,演化9个周期后就弱到几乎测不到(标准差<0.01);但测的OTOC(尤其是二阶 OTOC,记为 OTOC⁽²⁾),就算演化20个周期,信号依然清晰(标准差>0.01)。 第二,二阶OTOC里藏着 “大循环干涉”(large-loop interference)的现象,经典计算机算不出来  量子系统演化时,会产生很多 “泡利字符串”(可以理解为量子状态的 小单元),这些字符串会形成 “大循环”,并且这些大循环的信号会相互加强出现:“相长干涉”。  这种“大循环干涉”让经典计算机很难模拟。他们用最强超级计算机Frontier尝试模拟 65 个量子比特的 OTOC⁽²⁾信号,需要约 3.2 年;而量子处理器测一次只需要 2.1 小时,速度差了1.3万倍。  就算用更快的经典模拟方法如蒙特卡洛,算出来的信号信噪比(1.1)也远不如量子实验(3.9)。 “实用量子优势”的可能 所谓“量子优越性” 不只是量子计算机比经典计算机快就行,还得做到“有用”。 这一次团队还演示了OTOC(2)在实际问题中的应用——学习量子系统的哈密顿量(Hamiltonian learning)。 在许多物理系统中,需要确定系统哈密顿量的未知参数。传统方法往往受限于量子态的快速退相干。而OTOC(2)由于其缓慢衰减的特性和对动力学细节的高度敏感性,成为了理想的探测工具。 研究人员设计了一个单参数学习实验:先模拟一个 “未知规则的量子系统”,再用 OTOC⁽²⁾测这个系统的信号,然后通过调整参数、让量子模拟的信号和实测信号匹配,最终精准找到了那个未知的相位(误差很小)。  这说明OTOC⁽²⁾不只是 “能测到特殊现象”,还能用来解决实际问题,比如分析真实的量子材料(像固态核磁共振系统)、反推它们的内部作用规律。 这次突破也依赖Willow芯片的硬件优势:去年它就通过 “随机电路采样” 测试证明了处理复杂量子状态的能力,如今能支持”量子回声“算法,关键在于其极低的出错率”和“高速运算”两大特质,既满足算法对计算复杂度的要求,也保证了结果精度。 发布后持续改进到今天,当前一代 Willow 芯片在规模化方面实现了一流的性能。在整个105个量子比特阵列中,单量子比特门的保真度高达99.97%,纠缠门的保真度高达99.88%,读出的保真度高达99.5%,所有操作均以数十至数百纳秒的速度运行。  对于未来规划,谷歌量子团队表示接下来他们将聚焦研发 “长寿命逻辑量子比特”,为构建更大规模、可纠错的实用量子计算机打基础。 本文内容来源于量子位、第一财经等,内容仅做学术分享之用,版权归原作者所有,不代表本公众号观点或证实其内容的真实性,如有侵权请联系删除,谢谢!
|