4 月 8 日,一支由加州理工学院、谷歌量子 AI、MIT 和初创公司 Oratomic 组成的联合团队在预印本平台 arXiv 发布论文,宣称证明了一个长期悬而未决的命题:小型量子计算机可以在处理大规模经典数据的(部分)机器学习任务中,以指数级更少的内存超越经典计算机。
研究团队在电影评论情感分析和单细胞 RNA 测序两个真实数据集上验证了这一优势。用不到 60 个逻辑量子比特,量子算法的内存消耗就比经典方法低了四到六个数量级。
![]()
图丨相关论文(来源:arXiv)
量子机器学习这个领域已经热闹了二十年,但一直没能兑现早期的宏大承诺。最初那批算法号称能加速线性代数运算,后来被一系列“去量子化”工作证明经典计算机用巧妙的随机采样也能做到;变分量子电路一度被寄予厚望,却在训练中频繁撞上“贫瘠高原”,梯度消失得找都找不到。
但这些挫折背后有一个更根本的问题:几乎所有声称有量子加速的算法,都假设数据已经以量子态的形式存在于机器中。现实世界的数据偏偏是经典的,比如一条条电影评论、一张张 CT 影像、一行行基因表达数据……怎么把这些东西高效地“喂”给量子计算机,一直是个没人能绕过去的坎。
量子随机存取存储器(Quantum Random Access Memory,QRAM)曾被视为这个问题的终极解法。
![]()
图丨处理海量经典数据时的量子优势(来源:arXiv)
这种设备理论上能让量子计算机像查字典一样,在叠加态中同时访问大量经典数据。但 QRAM 至今停留在纸面上,维持它所需的相干访问对硬件要求极为苛刻。2024 年发表在 npj Quantum Information 上的一项研究从因果律和相对论原理出发推导 QRAM 的物理上限,结论相当悲观:要让 QRAM 达到实用规模,所需的硬件复杂度本身就会吃掉量子优势带来的收益。
更尴尬的是,用来维持 QRAM 运行的经典控制系统往往足够强大,可以直接解决原本打算交给量子计算机的问题。到 2019 年前后,业界开始认真思考一个问题:在处理来自宏观世界的经典数据时,量子计算机到底还能不能展现出任何优势?
新论文的突破在于彻底绕开了 QRAM。研究团队提出了一套名为“量子预言机速写”(Quantum Oracle Sketching)的算法框架,核心思路出奇地简单:把数据当作流来处理。每观察到一条经典数据样本,就对量子系统施加一个精心设计的小旋转操作,然后立即丢弃这条数据。
随着越来越多的数据流过,这些小旋转逐渐累积,最终在量子系统中构建出一个足够精确的“预言机”近似,这个预言机可以被后续的量子算法调用,就好像数据已经以量子态的形式存在一样。
论文第一作者、加州理工学院博士生赵海萌在 Quantum Frontiers 博客上解释了这个想法的直觉来源。传统思路是先把所有数据存下来,再让量子计算机去访问;流式处理的逻辑完全不同,数据来一条处理一条,处理完就丢,量子系统的状态本身就是对数据的压缩表示。这有点像经典的流式算法和在线学习,只不过量子版本能把信息压缩到指数级更小的空间里。
![]()
图丨赵海萌(来源:https://hmzhao.me/)
不过这种方法也是有代价的。论文证明,用经典数据样本构建量子预言机需要付出“平方代价”,如果你想调用预言机 Q 次,就需要消耗大约 Q² 条数据样本。这个代价源于量子力学的玻恩规则,量子振幅和经典概率之间的平方关系是绑死的。研究团队同时证明了这个平方代价是最优的,不可能再降低。
研究团队选了两个数据集做验证:IMDb 电影评论数据集,任务是判断一条评论是正面还是负面;单细胞 RNA 测序数据,任务是把高维的基因表达数据投影到低维空间以区分不同类型的细胞。实验比较了四种方法:量子预言机速写、基于 QRAM 的量子算法、经典稀疏矩阵算法、经典流式算法。为了公平比较,研究者统一用“基本存储单元”来衡量内存消耗,量子算法用逻辑量子比特数,经典算法用浮点数个数。
![]()
(来源:arXiv)
结果相当惊人。要达到同等的预测性能,量子预言机速写只需要不到 60 个逻辑量子比特,而经典方法需要的内存高出四到六个数量级。更有意思的是,当逐步限制内存预算时,量子算法的性能几乎不受影响,而经典算法的表现急剧下降。
赵海萌在博客中打了个比方:300 个逻辑量子比特的量子处理器,在存储能力上可以超越一台由可观测宇宙中每一个原子构成的经典计算机。当然,要真正看到这种戏剧性的对比,还需要宇宙级别的数据集和处理时间。
四到六个数量级的差距固然惊人,但更值得关注的是这种优势的本质。
论文的核心定理建立了机器大小与查询复杂度之间的根本关系:对于求解线性系统、分类、降维这些常见任务,一台多对数大小的量子机器可以在近线性时间内完成,而任何内存小于问题规模 0.99 次方的经典机器都做不到,即便给它超多项式的样本和时间也不行。
更关键的是,这种优势是“信息论层面的”和“无条件的”,不依赖任何计算复杂性猜想,仅仅依赖量子力学本身的正确性。换句话说,即便未来有人证明经典计算机和量子计算机在多项式时间内能解决同样的问题,这里证明的优势依然成立。
这和之前展示的“量子优越性”实验有本质区别。2019 年谷歌用 Sycamore 处理器完成的随机电路采样任务证明的是计算速度上的优势,而且那个任务本身没有什么实际用途。这一次,优势体现在内存而非速度,而且任务(分类和降维)是机器学习中最基础、应用最广的操作。
John Preskill 在论文发布当天发推说:“我们的论文证明,量子机器可以用指数级更少的内存解决常见的机器学习任务。要把这个理论转化为实践还需要大量工作。但因为现代 AI 常常受限于内存不足,这个发现增强了我们的信心:量子 AI 最终能对日常生活产生广泛影响。”
当然需要强调的是,这项研究目前仍是理论证明加数值模拟,尚未在真实量子硬件上验证。论文中的“60 个逻辑量子比特”是个容易引发误解的数字。逻辑量子比特是经过量子纠错编码的、受到保护的量子比特,和当前噪声中等规模量子设备上的物理量子比特完全不是一回事。要实现一个逻辑量子比特,可能需要数百甚至上千个物理量子比特加上配套的纠错电路。
谷歌在 2024 年底发表于《Nature》的研究中刚刚首次展示了纠错性能随编码规模增大而提升的“阈值以下”操作,从那一步到能稳定运行 60 个逻辑量子比特,中间还有相当长的路。
还有一个许多人都关心的问题可能是:这对大语言模型来说有用吗?这些结果对当前最火的生成式 AI 有什么启示?论文处理的是分类和降维这类“判别式”任务,而大语言模型是生成式的。赵海萌在博客中坦承,目前的结果“并不直接意味着对大语言模型等现代生成式 AI 的即时效用”。
但他比较乐观地表示:“我有一种强烈的感觉,我们正处于一个与传统机器学习时代惊人相似的历史节点——那个支持向量机和随机森林主导的时代,那个我们依赖严格统计分析因为缺乏大规模启发式探索所需计算资源的时代,那个最终孕育出深度学习和 AI 革命的时代。”
量子计算社区一直被一个问题困扰:除了破解密码和模拟量子系统,量子计算机到底还能用来干什么?这项研究给出了一个部分答案。不是因为机器学习任务本身有什么量子结构,而是因为量子态的指数级表达能力可以用来极度压缩对经典数据的表示,前提是你得找到合适的方法把数据“流”进去。
Preskill 在 2012 年提出“量子优越性”概念时曾援引费曼的名言:“自然不是经典的,该死的,如果你想模拟自然,你最好把它做成量子力学的。”这篇论文的作者们在博客中整活反转了这句话:“我们生活在一个实际上是经典的世界里,该死的,也许经典计算机和 AI 对我们的大多数问题已经够用了。”他们的论文证明,这个“也许”后面还有很大的商榷空间。
参考资料:
1.https://arxiv.org/pdf/2604.07639
2.https://quantumfrontiers.com/author/haimengzhao/
运营/排版:何晨龙
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.