网易首页 > 网易号 > 正文 申请入驻

arxiv:AI正在读懂量子世界——从量子态到量子计算机

0
分享至


导语

对大规模量子系统(尤其是量子模拟器和巨型量子计算机产生的系统)进行高效刻画,是量子科学领域面临的核心挑战,这源于希尔伯特空间随系统规模呈指数级增长的特性。近年来,人工智能(AI)凭借其在高维模式识别和函数逼近方面的卓越能力,已成为应对这一挑战的利器。越来越多的研究将 AI 应用于可扩展量子系统的表征与建模,从理论基础到实验实现均有所涉猎。根据如何整合先验知识和学习架构,AI 在量子系统表征中的应用可归纳为三大协同范式:机器学习(特别是深度学习和语言模型)。本文综述了这些 AI 范式如何助力量子系统表征的两大核心任务——量子属性预测与量子态替代模型构建。这些任务支撑着从量子认证、基准测试到量子算法优化、强关联物质相理解等多样化应用。文中还探讨了关键挑战与未解问题,并展望了 AI 与量子科学交叉领域的未来前景。

关键词:⼈⼯智能、量⼦系统表征、量⼦属性预测、量⼦态替代模型、量⼦多体系统

来源:集智俱乐部

作者:杜玉轩、朱燕等

译者:罗云

审校:张江


论文题目:Artificial intelligence for representing and characterizing quantum systems 论文链接:https://arxiv.org/pdf/2509.04923 发表时间:2025年9月5日 论文来源:arxiv

关键点

  • 人工智能模型可以用来以数据驱动的方式表示和刻画可扩展的量子系统,以完成量子属性预测和隐式地去近似量子态重建的任务。

  • 已设计出用于表征可扩展量子系统的线性特性并分类量子相,并被证明是高效的机器学习模型。

  • 深度学习模型通过表征学习为预测多种量子特性提供了强大工具,同时还能利用生成式建模方法隐式地重构量子态。

  • 基于 GPT 架构的语言模型,为自回归的方式表征大量量子态家族提供了灵活框架,为量子系统基础模型的构建铺平道路,并为研究与应用开辟了新方向。

I. 引言

量子工程领域的最新进展使得制造和控制高度复杂的量子器件变得越来越常规化[34,149,173,232,256]。这些发展使得利用可扩展量子模拟器探索量子多体系统[13,174,285]以及构建量子计算机[7,29,77,98,197]成为可能,而且人们正朝着“超级量子”时代迈进(例如处理约 100 个逻辑量子比特,深度约 10000[197])。然而,随着实验室中可操作的量子系统的规模不断扩大给人们带来了新挑战。由于量子比特数量的指数级增长导致状态空间急剧扩大,现代量子模拟器和量子计算机生成的量子系统在描述和表征方面变得极其困难。经典模拟器如张量网络[194]虽能捕捉重要类态,却无法模拟高纠缠态的行为。虽然针对克利福德电路(Clifford circuits)的定制方法能实现高效模拟,但扩展到包含非克利福德(non Clifford)门电路时,计算成本通常会随非克利福德操作的数量呈指数级增长,这种现象通常用“魔法”(magic)概念来形容[2,5,35]。这些挑战要求我们采用新方法,以获取经典模拟器计算能力无法精确存储的量子系统特性。

过去十年间,人工智能技术因其在大数据中识别模式与关联的能力,已成为破解量子系统表征难题的有力工具。参考文献[103]系统梳理了贝叶斯推断、浅层架构神经网络及基础训练算法等早期 AI 技术在量子系统研究中的应用。近年来,生成式预训练 Transformers(GPT)[204]的突破性进展,以及量子学习理论[14]的深化,推动了大规模量子系统表征方法的创新。这些技术突破显著提升了人工智能模型在理解量子多体物理学和量子计算领域的应用水平[12,57,65,78,81,89, 130, 132, 136, 147, 157, 164, 166, 183, 186, 193, 199, 213, 236, 245, 246, 268, 271, 282–284, 289, 296, 299, 302, 303]。面对如此迅猛的发展态势,系统梳理核心研究成果并明确未来研究方向,已成为指导人们后续探索的关键任务。

在本综述中,我们系统梳理了自 2022 年以来人工智能在量子系统表征(representation)与刻画(characterizing)领域的最新进展,重点聚焦理论基础与算法创新。具体而言,我们按照人工智能模型的方法论层级结构组织这些研究进展,包括机器学习(ML)——其中涵盖了深度学习(DL)作为重要分支,以及语言模型(LMs)作为深度学习架构的特定类别,如图 2 所示。与许多其他领域不同,人工智能新方法并非取代旧技术,量子系统表征领域的进步得益于多种模型的互补优势。为阐明机器学习、深度学习和语言模型在该领域的应用,我们采用任务导向视角,重点聚焦三大核心任务:(1)预测量子系统的线性特性,(2)预测非线性特性的实例,(3)重构量子态与过程。如图 1 所示,这些任务支撑着广泛的应用场景,包括量子认证与基准测试[86]、量子硬件表征[10]、变分量子算法优化[50]以及奇异量子相位发现[43]。从概念层面看,层析重建与特性测试方法正日益被视为量子学习理论的重要组成部分[14,17],这反映出人们思维方式的转变。

关于人工智能在量子物理学领域的应用,已有诸多综述文献,涵盖物理学领域的人工智能应用[3,43,75,277]、量子计算与量子技术中的人工智能应用[3,10,154]、量子模拟中的语言模型[175]、量子阴影层析成像(quantum shadow tomography)[86,88,129]、神经量子态[48,75,159]以及变分量子算法[27,50,80]等主题。尽管多数综述聚焦于特定领域的人工智能模型应用,但我们的研究视角截然不同。我们通过不同人工智能方法论的视角来分析这些应用,探索更广泛的人工智能技术在量子模拟器和量子计算机所生成的量子系统表征与刻画中的应用。研究范围涵盖从具有理论保证的机器学习方法到前沿基础模型(如 GPTs)等,分别突出其优势与局限性。

在本综述中,我们特别聚焦于以数据驱动方式表征和描述量子系统的 AI 模型。因此,变分神经量子态方法并非主要研究方向[48]。与此同时,我们强调可扩展的 AI 方法在学习量子系统时,如何突破传统非机器学习方法中固有的维度诅咒。相反,针对小规模量子系统设计的 AI 方法(例如用于重构未知量子态密度矩阵的技术[159]),由于无法推广到可扩展量子系统,故已超出本综述的核心关注范围。此外,利用 AI 方法自适应地精准控制量子系统并提取知识的应用同样重要,但这也超出了本综述的讨论范畴。由于我们侧重理论与算法进展,实验工作并非主要研究重点——尽管需要明确的是,所讨论的方法在实验领域具有直接应用价值。本文仅涵盖那些支持理论或算法突破的实验成果。


图1. 利用人工智能表征与刻画量子系统的关键任务与应用场景概览。通过量子模拟器生成的基态表征、数字量子计算机生成的量子态表征,可归纳为三大核心任务:线性特性预测、非线性特性预测以及量子态与过程重构。每个任务又细分为体现具体目标的子类别。底部图标标注了各任务通常采用的人工智能范式,即图2中提及的机器学习模型、深度学习模型和语言模型。这些方法的现有及潜在应用包括:量子算法优化、量子设备认证与性能评估、量子硬件研发以及科学发现。


图2. 人工智能模型学习大规模量子系统的概述。层次结构反映了人工智能模型能力的提升及其对处理大规模量子系统适应性的增强,从广泛的人工智能概念到机器学习模型、深度学习模型以及基于Transformer的模型。每个类别中的代表性策略用绿色圆圈标出。符号‘NN’、‘ NQS ’和‘LLM’分别指神经网络、神经量子态和大型语言模型。序列模型包括循环神经网络、 LSTM 及相关架构。

II. 学习范式的概况

要大规模运用人工智能对量子系统进行表征和刻画,关键在于设计能够识别量子系统家族中相关模式和结构特征的学习模型。经过训练后,这些模型就能对训练过程中遇到的具有相似特征的未知量子系统进行泛化。这种数据驱动的方法与传统做法截然不同——传统方法往往孤立处理每个系统,无法利用可迁移的洞见。

现有针对可扩展量子系统的学习协议主要研究两类量子态:(i) 模拟量子模拟(analog quantum simulation)中的态,例如哈密顿基态;(ii)数字量子计算中的态,即由量子电路产生的态。对于这两类态,学习目标都是从具有共同物理结构的训练态集合中进行泛化,以准确预测特定物理特性(如磁化强度和保真度)或重构超出训练数据范围的量子态。如图 1 所示,该领域核心学习任务包括线性和非线性特性预测(见方框 1)以及量子系统的重构。

H(x)|ψ(x)⟩= E 0 (x)|ψ(x)⟩

为了说明这一点,我们接下来简要回顾如何将量子系统的表征和刻画重新表述为学习任务。以哈密顿基态为例,我们考虑一个由哈密顿量 {H(x)|x∈ R d } 组成的家族,每个哈密顿量由一组相对较小的实参数 x 定义,这些参数定义了一些概念类。例如,在横向场伊辛模型中,参数 x 编码了相互作用强度和外部场强度。哈密顿基态向量 H(x) 的基态矢量记为 |ψ(x)⟩ ,其中 |ψ(x)⟩ 由 x 参数化的纯量子态。假设 |ψ(x)⟩ 满足

H(x)|ψ(x)⟩= E 0 (x)|ψ(x)⟩

其中 E 0 (x) 是 H(x) 的最低本征值。在训练阶段,学习模型在包含 x 的采样值及其相关测量结果数据 |ψ(x)⟩ 的经典数据集上进行训练。在预测阶段,这些训练好的学习模型被应用于预测状态向量 |ψ( x ′ )⟩ 的物理性质或重建以前未见过的参数 x ′ 的经典表示。


图3. 量子系统学习协议框架。现有的用于表示和表征可扩展量子系统的模型通常包括三个阶段:数据收集、模型实现与优化以及模型预测。左图展示了数据收集阶段,其中量子系统被制备成具有参数 x (i) 和辅助信息 z (i) 的状态。然后,制备好的量子态 ρ( x (i) ) 被测量 T 次以获得测量结果 s (i) 。中间图说明了数据集构建和模型实现的不同阶段。一旦收集到原始数据集 τ ,应将其预处理为特定任务的数据集 τ ML 、 τ DL 和 τ LM ,分别用于训练基于机器学习、深度学习和逻辑门的模型。右图展示了模型预测阶段。根据预测过程是否需要量子测量数据作为输入,学习协议被分类为基于测量的和与测量无关的。

Box 1: Linear and nonlinear property prediction

方框1:线性和非线性属性预测

预测量子态 ρ 的线性特性是指估计 ρ 上一组可观测量 D 的期望值,即 {Tr(ρO)|O∈D} 典型例子包括能量、磁化强度和关联函数。预测量子态 ρ 的非线性特性是指估计可以表示为 Tr(f(ρ,O)) 的物理量,其中函数 f(.,.) 对于量子态 ρ 是非线性的。典型例子包括冯·诺依曼熵,其中 f(ρ,1)=−ρ log ⁡ρ ,以及乌尔曼保真度,其中 , σ 表示混合量子态

|ψ(x)⟩=U(x)| ψ 0 ⟩ ,

在数字量子计算领域,一个例子是由参数化量子电路 U(x) 制备的一组量子态,该电路由一组固定的门和一组可调门组成,这些可调门由例如 x∈[−π,π ) d 参数化。给定任意 x,对应的量子态向量为

|ψ(x)⟩=U(x)| ψ 0 ⟩

其中 | ψ 0 ⟩ 是一个固定的 N 量子比特的初始态向量。在这种设置下,训练和预测的两个阶段类似于学习哈密顿量基态的过程。

根据学习范式不同,现有用于表征和刻画量子系统的协议可分为机器学习(ML)、深度学习(DL)和语言模型(LM)三种方法。尽管模型架构和应用范围存在差异,但这些协议都遵循包含三个阶段的通用工作流程:数据收集、模型实现与优化、模型预测,如图3所示。

在接下来的内容中,我们将概述协议中每个阶段三种学习范式的联系与差异,详细讨论将留待后续内容讨论。根据应用的不同,我们将使用状态向量表示 |ψ(x)⟩ 或密度矩阵表示 ρ(x) 。

A. 数据收集

一般而言,训练数据集可以表示为


的形式,其中 n 表示训练样本的数量, x (i) 和 z (i) 分别代表每个训练样本的经典描述和辅助信息, s (i) 表示第 i 个训练样本 ρ( x (i) ) 的测量数据,共 T 次采样。例如,如图3所示,当 |ψ( x (i) )⟩ 由数字量子计算机在等式(2)中生成时, x (i) 表示可调门中的旋转角度, z (i) 表示 U( x (i) ) 的门布局, s (i) 表示 |ψ( x (i) )⟩ 的测量结果。需要注意的是,等式(3)中的数据集 τ 采用了最全面的形式。根据学习协议的不同,可以省略单独的辅助信息 s (i) ,或省略辅助信息 s (i) 与经典描述 x (i) 的组合。

方框2:人工智能术语

监督学习、半监督学习、自监督学习和无监督学习

人工智能学习范式通常分为监督学习、自监督学习、半监督学习和无监督学习四大类,它们在使用标注数据与未标注数据的方式上各有不同。监督学习模型通过标注数据集进行训练,学习输入与输出之间的映射关系。半监督学习结合少量标注数据与大量未标注数据,从而提升学习效率和泛化能力。自监督学习通过数据本身生成监督信号,通常采用预设任务的形式,使模型无需显式标签即可学习有效表征。无监督学习则通过分析未标注数据,识别数据内部的模式、聚类或相似性特征。

判别学习和生成学习

人工智能学习任务可根据其建模数据与标签间关系的类型分为判别式学习和生成式学习。判别式学习通过学习条件概率 P(y|x) (其中 x 为输入数据,例如图像; y 为标签,如对应类别)来构建不同类别间的决策边界,这种学习方式在房产预测任务中应用广泛。与之形成对比的是,生成式学习旨在建模联合分布 P(y,x) 或边缘分布 P(x) ,从而实现新数据样本的生成。例如在图像生成任务中,输入 x 代表图像,输出 y 对应类别,使模型能够生成逼真的图像-标签配对或合成新图像。在本文综述的语境下,一个典型范例是隐式量子态重构——通过生成经典替代系统,其目标是产生能模拟量子系统测量结果的测量结果。

特征工程与表征学习

特征工程与表征学习都是人工智能模型数据准备的关键环节,二者相辅相成,共同提升学习效果。特征工程是指将原始数据转化为适合学习算法处理的形式,通常借助领域知识设计或筛选具有信息量的输入特征。例如,这可能涉及将量子系统的经典描述转化为适合神经网络的数学表达式。而表征学习则专注于从原始数据或经过特征工程处理的输入中提取有用且信息丰富的表征,使模型能够学习有效模式以完成下游任务。

用于收集 s (i) 的量子测量方法具有灵活性且取决于具体问题。回顾一下,任何量子测量都可以用一个正算子值测度(POVM)来描述[190]。形式上, POVM 的形式为 M={ M s } ,其中 0⪯ M s 且 Pr(s)=Tr(ρ M s ) (当集合 {s} 是不可数时, ∫ds M s =1 )。每次 POVM 测量 M 的一次测量都会从概率分布 Pr(s)=Tr(ρ M s ) 中产生一个样本。因此,有限次数的测量会产生有限数量的测量结果样本,即 。当 M 是一个信息完备的 POVM 时,随着 T→ ∞ ,可以从 s (i) 渐近地重构出 ρ 的密度矩阵。在收集 s (i) 时广泛采用的一种重要测量策略是利用适当的随机测量[88],相对于一个概率测度。这种测度的选择既受到数学考虑的影响,以确保合理的样本复杂度,也受到物理约束的影响,例如某些 POVM 的局域性要求。

与传统机器学习任务相比,构建用于表征和描述量子系统的高质量数据集T面临着独特挑战。首先,不同于计算机视觉和自然语言处理等传统领域,要确定哪些测量指标能为研究量子系统提供最关键的信息并非易事。其次,随着系统规模的扩大,状态空间呈指数级增长,这使得收集全面且高质量的数据(例如全量子态层析成像所需的数据)变得成本高昂到难以承受。

B. 模型的实现与优化

现有学习协议依赖于收集的训练数据集T进行训练。然而,基于机器学习(ML)、深度学习(DL)和语言模型(LM)范式的协议在信息处理与提取方式上存在差异,其针对特定学习任务的优化策略亦有所不同。

在机器学习模型领域,先前研究[81,132,164]主要聚焦于预测量子系统的单一或多重线性属性(如图1所示),并建立了样本复杂度与预测精度之间的可验证关系。收集的数据 τ 被转换为监督学习格式(参见框2)。构建完标注数据集后,采用基于回归和核方法,并结合任务特定特征图来完成训练[28]。具体而言,定制化的特征图将原始输入 x (i) 转换至高维空间,使得输入与目标之间的复杂关系在该空间中呈现线性可分性,从而更有利于回归或分类任务的完成。

对于深度学习模型,先前的研究可以根据目标学习任务主要分为两个子类。第一类子类专注于属性预测,旨在推断所研究的量子系统的某个或多个物理属性(包括线性和非线性)[47,99,101,152,199,201,259,268,282–284,294,302]。在这种情况下,数据预处理与机器学习模型非常相似,即将收集的量子数据 τ 重新格式化为监督学习格式。有了准备好的数据集,已经开发出多种具有不同神经架构和优化策略的深度学习模型。这一研究方向的核心目标是构建能够利用有限训练数据准确预测更广泛物理属性的深度学习模型[283]。第二类子类专注于使用神经量子态(NQS)进行隐式和近似量子态重构[49,54,252,300]。与旨在创建量子态完整经典描述的传统量子态层析成像不同,这种方法训练深度神经网络以近似重现目标量子态 ρ(x) 的测量统计。重要的是,属性预测被表述为判别学习任务,而使用 NQS 的量子态重构本质上是生成性的(参见框2的解释)。在此背景下,目标是设计高效的深度生成模型,以使用相对较少的训练样本来近似与 ρ(x) 相关的真实测量分布。

对于语言模型,近期的研究探索了生成式预训练Transformers (GPTs)[36],以实现类似GPT的模型,这些模型能够执行与量子系统表示和表征相关的多种任务。与机器学习和深度学习方法不同,基于语言模型的方法通常在两个不同的阶段进行优化:预训练和微调。在预训练阶段,模型通过执行广义状态重构来学习捕捉广泛量子态中的常见结构模式,旨在近似与参数集合 x 条件下的 ρ(x) 相对应的测量分布[271, 289]。在随后的微调阶段,模型被调整以适应特定的属性预测任务[245,296]。这一过程反映了机器学习和深度学习模型中使用的训练策略。该阶段的目标是通过监督学习准确推断所需的量子属性。

C. 模型预测

量子系统表征与刻画过程中涉及的多样化任务和多重学习范式表明,不存在能够涵盖所有模型的单一且确定的分类方式。此前,我们已根据其实现策略和应用领域对这些模型进行分类。另一个区分它们的关键角度是验证预测阶段是否需要访问量子系统,这通常被称为“量子数据”。从这个角度来看,所有学习协议——即机器学习模型、深度学习模型和语言模型——均可归类为测量无关协议和基于测量的协议,如图3所示。具体而言,测量无关协议的预测仅依赖经典输入[81, 132, 164, 268, 271, 289],例如参数 x 和辅助信息 z ,而无需进行量子测量。相比之下,基于测量的协议则需要在预测阶段获取待研究量子系统的测量结果s作为输入[99,101,147,152,199,201,245,282,283,294,302]。

III. 机器学习范式

机器学习(ML)模型是一类基于统计学习原理从数据中推断规律的算法[180]。当前该研究方向聚焦于开发可验证高效的机器学习模型,用于预测量子态的线性特性(参见方框1),尤其关注预测误差随训练样本数量变化的规律。尽管这些学习协议存在多样性,但可归纳为通用框架。为便于理解,我们首先阐明机器学习模型的通用框架,随后讨论其应用场景,最后探讨其局限性及其他前沿议题。

A. 线性属性预测的总体方案

需注意的是,用于预测线性特性的机器学习模型包含三个步骤:数据收集、模型构建与训练,以及预测。下文将对这些步骤逐一展开说明,以补充前文所述的高层次概览。


(5)

将机器学习模型应用于线性属性预测的第一步是将原始数据集 τ 在等式(3)中转化为用于监督学习的标记数据集,即


(5)

其中 表示第 i 个训练样本的物理属性估计值,这些估计值来源于测量结果 s (i) , ∀ i∈[n] 。给定一组可观测变量 D,状态 ρ(x) 的线性特性指的是 y={Tr(ρ(x)O) } O∈D 。当测量次数 T 趋于无穷大时, y 与 之间的估计误差趋近于零,对于某些精确设置,可以证明严格的样本复杂度界限。

模型实现与训练。在访问 τ ML 的情况下,机器学习模型依赖于专门定制的特征工程(见框2)来完成学习。将所使用的机器学习模型的预测表示为 h ML (x) 。优化过程涉及最小化模型预测与 τ ML 中标签之间的差异。

Box 3: Classical shadows方框3:经典阴影

经典阴影方案用于未知的N量子比特态 ρ ,该方案重复以下过程 T 次[131]。每次,首先将从适当选择的预定义酉集合 υ 中随机采样的酉算子 U 作用于态 ρ ,然后在计算基上测量每个量子比特,以获得一个N位字符串 b∈{0,1 } N 。这种测量平均产生线性映射 M(ρ)= E U∼U E b∼P(b) U † |b⟩⟨b|U ,其中 P(b)=⟨b|Uρ U † |b⟩ 。未知态 ρ 可以表述为


这意味着可以通过按照分布 P(b) 采样快照 T 次来估计 ρ 。定义第 t 次快照为 ,其中 t∈[T] 且 Ut∼υ 。这些 T 次快照对应的 ρ 的影子表示为


虽然前向过程通过物理量子通道反映,但逆向过程可以在经典层面实现。当采用基于泡利的随机测量时,幺正系综U等同于单量子比特克利福德门,即

,具有均匀权重。在这种情况下,逆向快照的形式为

这种张量积形式允许高效估计给定状态 ρ 的局域可观测量的期望值。对于此类随机单量子比特克利福德门,所需样本数量与所选可观测量的泡利权重成正比。其他常见的系综是全局随机克利福德电路[131],这导致阴影在信息上是完备的,并允许估计任何可观测量的期望值。已提出多种原始方案的重要变体,特别是那些利用对数深度克利福德电路的变体[26,128,228]。

大多数用于预测可扩展量子系统线性特性的机器学习模型采用线性回归框架[28]。这些模型的数学表达式为

h ML (x;w)=⟨w,ϕ(x)⟩,

(6)

其中 w 表示可训练参数, ϕ(x) 表示应用于输入 x 的工程化特征映射。这些机器学习模型的主要关注点是手动特征工程 ϕ(·) ,它将原始输入 x 转换到高维空间,使得输入与目标属性之间的关系近似线性。 ϕ(x) 的实现取决于任务,并将在下文中详细说明。

等式(6)中线性回归模型的优化涉及确定使损失函数最小化的最优参数 w ∗ ,即


(7)

其中 ℓ(·,·) 表示每个样本的损失,例如均方误差,而 λ≥ R + 是正则化项的超参数。根据 α 的选择,线性回归模型有三种类型(值为 0、1 和(0,1)分别对应于Lasso回归、岭回归和弹性网络回归 [306])。除了线性回归模型外,核方法构成了另一类广泛用于预测可扩展量子系统线性特性的机器学习模型 [28]。其基本机制和常用核函数总结在框 4 中。

模型预测。训练好的机器学习模型可以直接用于预测新量子态 ρ(x) 的有趣量子特性。如图3所示,这些模型以测量无关的方式运行,提供了一种高效的方法来刻画量子系统,而无需将量子数据作为输入。


(8)

评估训练完成的学习模型性能的常用方法是计算其期望风险,该指标用于衡量模型预测结果与实际目标物理量的吻合程度。从数学角度而言,期望风险(亦称预测误差)是


(9)

其中输入变量 x 从数据分布 D X 中采样, y 代表物理属性的真实值。通常情况下,数据分布 D X 未知,因此无法直接进行评估。另一种方法是在测试数据集上评估损失函数,该数据集由从同一数据分布 D X 中抽取的未见过样本组成。

方框4:核方法

核方法是一类通过评估高维特征空间中数据点相似度来实现分类或回归的机器学习技术[28]。这种方式能够揭示复杂数据中原始变量可能无法直接体现的关联关系。值得注意的是,当以对偶形式表达时,核方法在数学上等价于线性回归[225]。一个核机器的通用形式为


其中 { α i } 表示与每个训练样本点相关的对偶系数(或权重),表示偏置项, k( x (i) ,x):=⟨ϕ( x (i) ),ϕ(x)⟩ 是评估 x (i) 和 x 在特征空间中相似性的核函数。与线性回归模型中的 ϕ(·) 一样, k(·,·) 的选择也取决于任务。下面列出了用于预测量子系统属性的代表性核函数:

• Dirichlet核。该核旨在预测一组基态的线性特性。设 Λ 为频率截断的阈值。Dirichlet核的显式形式为


正的良核(Positive good kernel)。该核同样用于预测一系列基态的线性特性。采用与Dirichlet核相同的符号体系,其显式形式为


拓扑有序相分类的核。设 τ 和 γ 为两个超参数。将经典阴影 T (x) 在第i个量子比特处的t快照的约化密度矩阵表示为 。所提出的核函数的数学表达式为


截断的三角函数单项式核。记 ω∈{0,±1 } d 为 d 维频率向量。定义特征映射为 ,其中 α i (·;·) 包含三个不同的映射函数,取决于值 ω i 。具体来说, α( x i ;0)=0 , α i (x;1)=cos( x i ) ,以及 α i (x;−1)=−sin( x j ) ,对于 ∀ i∈[d] 。记截断值的阈值为 Λ ,则核的形式为


B. 的机器学习模型及其应用

在可扩展量子系统刻画领域,大量研究聚焦于开发高效的机器学习模型,以解决各类线性属性预测任务及部分非线性任务,这主要源于其可解释性与理论保证的优势。本文根据应用场景对这些机器学习模型进行分类,并系统梳理其实现方案与理论成果。表I汇总了该领域代表性方法的最新进展。

1. 哈密顿量基态的线性性质预测

该领域的开创性工作由黄等人[132]建立,证明了基于实验数据的机器学习算法可以有效解决某些经典算法无法处理的量子多体问题。具体而言,机器学习模型预测了一组可观测量 D={O} 在一系列有能隙、几何局域哈密顿量 H(x) 态上的期望值。例如,O可以是低权重泡利算符的线性组合。学习器采用基于泡利的经典影子[131]来获取原始数据 τ(3) ,其中 s (i) 对应于 ρ( x (i) ) 的随机测量结果,而辅助信息 z (i) 则不是必需的。根据这些测量结果,学习器按照框3中的步骤重建影子表示 。训练数据集 τ ML (5)通过影子估计计算标签 构建。给定 τ ML ,对于每个可观测量 O j ∈D ,核机器采用显式形式。


其中 的第j个条目指的是 ⟨ O j ⟩ 的估计, κ Λ (·,·) 表示截断的Dirichlet核(参见框4)。

所提出的机器学习模型在许多实际场景中被证明是高效的。具体而言,当x从均匀分布中采样时,平均梯度范数是有界的,即 ,且可观测值良好有界,所提出的模型以高概率在等式(8)中实现 ϵ 预测误差。此外,模型实现的经典训练时间和预测时间均被上界为 O( d O(C / ϵ) ) 所约束。通过预测一维51原子里德伯原子系统(Rydberg atom systems)的基态局部期望值以及二维25量子比特反铁磁海森堡模型基态的两点关联函数,该机器学习模型的有效性得到了验证。

后续研究工作将重点放到探讨如何通过利用哈密顿量的不同条件进一步减少样本和运行时间的复杂性。当已知所探索的N量子比特哈密顿量族 {H(x)} 的几何结构时,特征映射 ϕ(·) 可以融入几何归纳偏置,由此产生的Lasso方法能够实现高效且精确的预测,仅需 O( ) 个样本和 O(N poly( ϵ −1 )) 的运行时间[164]。此外,当可观测集 D 仅包含一个已知分解的单元素且哈密顿量族具有几何局部性和能隙时,岭回归可实现 O( 2 poly log ⁡(1 / ϵ) ) 的样本复杂度(与 d 无关)和与 N 呈线性关系的运行时间。所采用的特征映射,与参考文献[164]类似,也通过轻微修改编码了哈密顿量的几何结构[275]。

当经典参数d的数量恒定,或与量子比特数N无关时,定义在框4中的正良核可以用狄利克雷核替代,以达到改进的样本复杂度 O(poly(1 / ϵ,N)) [57]。此外,存在高效的机器学习模型可以用于预测(等变)长程哈密顿量的性质。与参考文献[164]类似,与几何信息特征图相关的Lasso能够准确预测具有长程相互作用的基态的线性性质,实现样本复杂度随系统大小 N 对数增长[236]。另外,保持相互作用超图自同构群下等变性的机器学习模型可以进一步降低样本复杂度[235]。这些机器学习模型的有效性已在127量子比特的IBM量子计算机上得到验证,成功预测了随机跳跃系统和Su-Schrieffer-Heeger系统中的两点关联函数[65]。

除了能隙哈密顿量的基态之外,最初的努力还集中在预测马尔可夫开放量子系统中李乌维利安稳态的线性性质[193,213]。与传统的最大似然模型不同,预测这些性质的关键策略是计算经典阴影协议的经验平均值。通过这种方式, O( log ⁡(N / δ ) 2polylog(1 / ϵ) ) 个样本足以学习相位内量子系统的局域期望值,预测误差小于 ϵ ,失败概率至多为 δ 。

2. 哈密顿基态的相分类

量子相分类是机器学习在可扩展量子系统刻画中的另一个关键应用。黄等人[132]在该研究领域做出了开创性贡献,他们提出了两种针对不同量子相分类任务的机器学习模型:区分对称性破缺相和识别拓扑有序相。

在对称性破缺相分类的任务中,假设存在两个相,分别记为A和B。存在一个由多个局域可观测量组成的可观测量 O ,称为局域序参量,使得相关基态满足当 ρ(x) 属于相 A 时 Tr(ρ(x)O)≥1 ,而当 ρ(x) 属于相B时 Tr(ρ(x)O)≤−1 。基于此,可以采用框4中的截断狄利克雷核来实现基于最大似然的分类器,以达到满意的分类精度。

在拓扑有序相分类任务中,我们无法使用关于 ρ(x) 的线性函数来完成准确预测。然而,参考文献[132]证明了非线性分类器可以在严格证明的保证下解决此任务。具体而言,他们设计了一种特征映射,将经典阴影转换为包含任意大约化密度矩阵的特征向量,相应的核函数在框4中指定。所提出的机器学习模型提供了严格的保证:如果少体(few body)约化密度矩阵的非线性函数能够分类不同的相,则所提出的机器学习模型可以准确学习执行此类分类。所需训练数据量n和计算资源随系统大小 N 呈多项式增长。该机器学习模型的有效性已通过在200量子比特系统中区分拓扑相与平凡相得到验证。

3. 基于门态的线性属性预测

针对数字量子计算机输出的量子态线性特性预测,存在两种不同的机器学习模型应用场景,其差异源于可观测量的灵活性。每种场景都给我们带来独特的挑战,需要采用不同的学习策略,下文将分别探讨。

固定输入状态和可观测量。第一种设置考虑了输入状态 ρ0 和可观测量O都固定的案例。这种设置的主要动机来自于开发变分量子算法的经典替代方案[50],包括变分量子特征求解器(VQE)及其变体以及量子神经网络(QNNs)。换句话说,我们的目标是设计一个机器学习模型,以准确预测期望值 Tr(ρ(x)O) ,其中 ρ(x)=U(x) ρ 0 U(x ) † ,而 U(x) 是一个在等式(2)中定义的N量子比特参数化电路。


图4. 预测数字量子计算机状态属性的场景。左图展示了一个典型的 VQE 电路,其中所有可调门(用橙色圆圈表示)作为可训练参数。右图描绘了一个 QNN 架构,其中一部分可调门用于编码经典数据,而其余门则作为优化的可训练参数。六边形和矩形门代表克利福德门。

如图4所示,量子神经网络的经典输入由两部分组成,即 ,其中
代表经典数据,如图像和文本,而 θ 则包含可训练参数。量子神经网络的通用形式为


先前的研究[227,265]已经证明,训练好的 QNN 可以扩展为截断的傅里叶级数,其中截断值的阈值取决于所采用的 。更多细节请参见框5。

Schreiber等人[226]采用这种基于傅里叶的公式设计了一个线性回归模型,用于预测量子神经网络输出 。所提出的模型形式为,其中 { c ω } 是可训练的傅里叶系数。学习目标是通过最小化等式(7)中的损失函数来优化这些系数,使用标记数据集 。标签 指的是从测量结果 s (i) 中得出的 估计值。在最坏情况下,所提出的机器学习模型以高概率实现预测误差被限定在 范围内,前提是训练样本数量满足,其中, d 为 维度。所提出模型的有效性已在标准经典机器学习数据集和最多八个量子比特的合成数据集上得到验证。

经典替代方法可能会遇到效率瓶颈,因为其运行时间复杂度会随着频率集的大小——或者说,随着经典输入向量 的维度——呈指数增长。为了缓解这一问题,一个有前景的解决方案是使用随机傅里叶特征进行模型构建[156,241]。具体来说, h ML ( ) 中的原始特征图 ϕ(·) 被替换为D维的随机傅里叶特征(见框5)。

该替代方案可带来显著的计算优势:模型训练的空间和时间复杂度均为 O(n D 2 ) 和 O(n D 2 + D 3 ) ,且与训练数据的维度无关。此外,当 有良好边界且 { s (i) } 通过足够大的 T 收集时, n∼O(d / ϵ 2 ) 保证了良好的预测性能,即对于 ∀ x∈X 成立。

方框5:量子神经网络的傅里叶分析

在不失一般性的前提下,量子神经网络(QNNs)中采用的参数化量子电路始终可表示为


其中 L 表示层数,可训练的酉矩阵 { W (l) (θ) } l 与数据编码的酉矩阵 { S (l) ( ) } l 交错排列 [83]。根据上述符号,先前的研究已经证明量子神经网络可以展开为截断的傅里叶级数 [227,265]。数学表达式如下


其中 指最优傅里叶系数,频率集合 Ω 仅取决于 { S (l) ( ) } l 的结构和层数 L 。 QNN 输出的傅里叶展开为采用随机傅里叶特征预测其行为提供了理论基础。经典学习模型的数学形式为 ,其中随机傅里叶特征 [206] 定义为


具有。这里, D 是一个超参数,特征 ν i =( a i , b i ) 从先验分布中采样。

关于训练样本数量 n 与每个样本快照 T 之间的关系,参考文献[97]进行了进一步探讨。具体而言,他们提出了一种新的机器学习模型,通过引入L1-Lipschitz非递减函数 u(·) ,即 ,其中核函数 k 对应于傅里叶特征映射。通过基于 τ ML 的迭代方法优化 ,等式(8)中的预测误差被上界限制为 。此处参数 c 1 和 c 2 与 L 1 范数、可观测量 O 的无穷范数以及傅里叶系数的范数呈多项式关系。研究结果突显了 n 相较于 T 的主导作用,因为有限的 n 会导致较高的预测误差。

正交研究路径涉及采用傅里叶级数展开、参数化量子电路结构及海森堡演化来设计高效的VQAs经典模拟器,而非基于学习的模型[23,51,69,92,106,189,214]。由于量子电路的高效模拟超出了本综述的范围,故不再详述。

固定输入状态和可变观测值。这种设置考虑了更广泛的情况,即输入状态 ρ 0 是固定的,而观测值 D 中的各个可以变化。一个直接的观察是,第一种设置是后者的特例。在这种情况下,一个高效的机器学习模型作为影子表示预测器 ,这意味着对于任何新的输入 x ′ ,它都能准确预测其影子表示 。因此,机器学习模型能够准确预测许多观测值的期望值,即。

实现这一目标的首个方法在参考文献[81]中被提出,旨在预测量子态的许多线性特性,其中等式(2)中的量子电路 U(x) 由 d 个旋转-泡利门和 G−d 个克利福德门组成,输入态 ρ 0 是任意的。学习过程遵循标准的三阶段监督学习流程。从概念上讲,学习器从先验分布中抽取输入控制参数 x (i) ,并将其输入到探索的电路中。对于每个示例 x (i) ,学习器采用基于泡利的经典阴影[131]来收集测量结果 s (i) 。通过重复此过程 n 次,原始数据 τ 被收集。

在获得 τ 的情况下,对于任何新输入 x ,影子表示预测器的显式形式可得出


其中 κ Λ (x, x (i) ) 指的是在框4中定义的截断三角多项式核。对于任何可观测变量 O∈D ,最大似然模型为 ,当 n 和 Λ 不太大时,该模型可以在经典端高效实现。

当输入数据从均匀分布中采样且 Λ=d 时,阴影预测器是 ρ(x) 的无偏估计量。此外,当平均梯度范数 被一个小 C 上界时,所提出的最大似然模型在样本和计算效率上都表现优异。为了在等式(8)中实现 ϵ 预测误差,所需的样本复杂度为 O(|E(Λ)| ϵ −1 ) ,其中 Λ=4C / ϵ 且 E(Λ)={ω|ω∈ 0,±1 d ,s.t.∥ω∥0≤Λ} 。此外,多项式样本复杂度确保了整体多项式计算复杂度。数值模拟证明了所提方法在预测60量子比特旋转GHZ态的两点相关函数、预测60量子比特全局哈密顿量的磁化强度以及预训练50量子比特 VQE 用于横向场伊辛模型方面的有效性。

C. 基本限制

现有机器学习模型的一个共同特征是,它们都遵循图3所示的测量无关学习协议。这些模型采用先进行测量、再对采集数据进行经典处理的策略。这引发了一个关键问题:在理解经典机器学习模型与量子学习模型[112,229]之间可计算的分离时,需要明确学习过程是完全还是部分在量子设备上执行的。解决这个问题不仅能丰富量子学习理论,还能为识别量子效用和量子优势提供具体指导。例如,假设所有量子问题都能通过经典机器学习模型高效解决,那么量子计算的实际优势将仅限于数据采集阶段。然而最新研究表明,尽管本文综述的现有机器学习模型在许多实际场景中表现优异,但它们也存在根本性局限,导致性能远逊于对应的量子模型。

首个探索机器学习模型在刻画可扩展量子系统中计算难度的研究由Gyurik等人[113]完成。他们构建了一类哈密顿量家族,其基态特性无法通过任何经典机器学习方法预测,假设标准密码学假设成立。这些结果表明,高效预测所需的条件(如平滑性和几何局域性[132])不能显著放宽。采用相同方法,后续研究进一步强化了这些结果,通过证明在温和假设 BQP ⊆ P/多项式下,从基态测量中预测未知可观测量的期望值存在经典-量子分离[184]。此外,相关结果可有效扩展,以确立机器学习模型在预测有界门量子态线性特性方面的计算难度[81]。对于非线性任务,研究表明在标准密码学假设下,学习“无能隙”量子物质相是计算上困难的[32,33]。

在进行一般性理论分析的同时,另一项独立研究方向致力于探索特定类机器学习模型的根本局限性。典型案例是理解随机傅里叶特征在量子神经网络(QNN)去量化过程中既具潜力又存在局限性。具体而言,近期一项研究通过反例证明,基于随机傅里叶特征的经典替代模型无法实现可靠的预测性能[241],该结论建立在参考文献[226]的研究基础上。后续研究进一步确立了回归模型作为QNN经典替代模型的必要条件,表明当量子模型优化的参数趋近最优值时,经典量子分离现象就会显现[248]。此外,参考文献[52,105]揭示,在变分量子学习模型可训练的场景中,研究者不仅能为当前场景找到高效的经典算法,还能实现对场景的“去量化”。


表I. 采⽤机器学习模型刻画可扩展量⼦系统的代表性结果总结。所探索的量⼦系统类型⽤G.S.表⽰基态,Q.C.表⽰由数字量⼦计算机制备的状态。多重线性属性预测和单线性属性预测分别⽤M.L.P和S.L.P表⽰。相位分类任务⽤P.C.表⽰。符号aQ表⽰量⼦⽐特数为 a 。

D. 高级主题

现有的用于表征和刻画可扩展量子系统的机器学习模型主要遵循监督学习范式。然而,在相分类任务中,有一条独特的研究路线采用无监督学习算法(见框2)来实现学习目标[58,132,217]。例如,主成分分析已被应用于识别物质的不同量子相,这受到凝聚态物理研究问题的启发,在一个300量子比特的键交替 XXZ 模型中[132],而张量核支持向量机则被用于重建簇伊辛模型的相图[217]。关于无监督学习方法在相分类中的全面综述,请参阅参考文献[43,75]。

与应用机器学习模型预测数字量子计算机生成的量子态线性特性类似,另一个研究方向是开发针对特定量子态、幺正操作和量子过程的可证明高效学习方法。在量子态学习领域,某些受限态类(如稳定子态[209]、 t 掺杂稳定子态[109,163]以及浅层电路制备的态[155])可在多项式时间内高效学习。对于幺正态学习,经典多项式时间算法可重构任意未知N量子比特浅层量子电路的描述[133]。最后,在量子过程研究中,高效的机器学习模型能够预测未知过程输出的任何局部特性,且在从特定先验分布抽取的输入态上具有较小的平均误差[62,130]。

尽管上述研究部分涉及机器学习在可扩展量子系统中的应用,但出于两个原因我们在此不作详细阐述。首先,这些问题可视为量子态/过程重构的简化版本——要么完全不涉及经典控制,要么仅限于输入态的控制。例如,虽然重构未知量子态通常需要指数级运行时间,但该问题可通过影子层析成像[1]等高效算法转化为更易处理的学习场景。其次,文献[14]已对这些方法进行了全面综述。

IV. 深度学习范式

深度学习(DL)在2010年代初的兴起[196],为可扩展量子系统的表征与刻画开辟了新途径。通过利用深度神经网络强大的表征能力,深度学习模型能够从数据中隐式捕捉复杂模式与结构,在广泛任务中展现出优异的实证性能。为深入阐述该领域深度学习模型的发展,本文首先梳理了深度学习应用于可扩展量子系统的一般框架,继而重点介绍当前主流深度学习模型的主要应用及前沿研究课题。

A. 总体方案

深度学习模型通过深度神经网络(DNN)自动且隐式地从训练数据中提取有意义的表征[107]。现有深度学习模型已广泛应用于属性预测与重构等多样化任务,如图1所示。这与传统机器学习方法形成鲜明对比——后者通常专为线性属性的测量无关预测而设计。根据具体任务和学习目标的不同,深度学习模型的实现方式存在显著差异:从测量无关到基于测量的协议不等,辅助信息的整合程度也各不相同。下文将详细阐述这些差异,并说明深度学习模型如何适应可扩展量子系统表征与刻画的多样化任务。

数据集构建。从学习范式视角来看,属性预测属于判别学习范畴,而状态重构通常被归类为生成式学习,如框2所示。这种区分导致训练数据集构建应该采用不同方法:属性预测任务采用多种针对特定模型和目标定制的数据预处理策略,而重构任务通常遵循更标准化的统一的方法论。

属性预测。在此背景下,最通用的方法是采用单一深度学习模型来预测给定量子态家族的多种线性和非线性属性。为此,等式(3)中的原始数据T被重新格式化为带有标签的训练数据集 τ DL ,这与多任务判别学习框架一致。如图3所示, τ DL 的构建可以根据深度学习模型是基于测量无关协议还是基于测量协议来分类。

大多数基于深度学习的方法属于测量协议类别,其中训练数据集 TDL 包含来自T的测量结果s(i)作为输入的一部分。在这种情况下,通常研究两种场景。第一种场景[101,152,283,284,294,302]中,只有测量数据可用,而底层物理参数x(i)要么未知要么无法获取。在这种情况下,数据集构建为,其中 (i) 表示从测量结果 s (i) 计算出的感兴趣物理属性的估计值。值得注意的是,原始测量结果 s (i) 必须适当处理成与深度学习架构兼容的表示,记为 (i) 。在第二种场景[181,199]中,物理参数x由学习器控制,训练数据集的形式为。

对于测量无关协议[183,268],训练数据集不包含明确的测量信息。给定原始数据T,预处理后的训练数据集形式为 ,其中标签的构建过程与基于测量的深度学习模型相同。在此设置下,不同深度学习模型的关键区别在于是否(以及如何)纳入辅助信息 ,这些信息要么被省略,要么用于编码系统特定细节,如量子系统的门布局或噪声特征[268]。

单态重构。与属性预测任务不同,大多数用于量子态重构的深度学习模型[6, 49, 54, 223, 237, 252, 300]采用简单且标准化的数据集构建方法。由于该任务属于生成建模范式,训练数据集通常为未标注数据,其形式为


(9)

对于 POVM 测量 { M s } ,相应的结果 { s t } 是从概率分布 P(s)=Tr(ρ M s ) 中采样的。

模型实现与训练。用于属性预测的深度学习模型通常在判别学习框架内构建。根据学习协议的不同,所采用的 DNN 表示为 用于基于测量的协议,而 h DL (x,z;θ) 用于测量无关模型,其中 θ 代表可训练参数。目标是通过最小化经验损失函数来优化这些参数。


其中每个组件 x (i ) 、 z (i) 和是否包含取决于可用的 τ DL , ℓ(·,·) 表示特定任务的损失函数,例如回归的均方误差或分类的交叉熵。优化通常使用基于梯度的优化器进行。

尽管先前关于属性预测的研究大多遵循判别学习范式,但深度学习模型的实现沿着两个关键方向发展。首先,许多研究[199,246,302]专注于开发专门的神经架构和优化策略,以提高数据效率,使模型能够从有限数量的训练样本n中准确预测出更广泛的物理属性(即高维 )。这些架构通常由模块化组件组成,如全连接层、卷积层或图神经网络(GNNs),这些组件针对数据集 TDL 的特定结构和模态进行了定制。其次,越来越多的研究[64,176]通过解决先前文献中未探索的属性预测任务,将深度学习的应用扩展到标准基准之外。

用于重构单个量子态的深度学习模型通常被称为神经网络量子态(NQS)[159]。现有方法可以分为两类:显式重构和隐式重构。主要区别在于深度神经网络的输出表示。在显式重构中, DNN 直接输出目标量子态密度矩阵的完整经典描述[6,54,82]。然而,这种方法随着量子比特数N的增加而呈指数级增长,使得其在可扩展系统中不切实际。因此,我们在本综述中不强调显式重构。

相比之下,重要的是,隐式重构方法模拟了量子态的行为,而无需显式地重构其完整的密度矩阵,该矩阵的形式化描述见框6。这些方法可以进一步分为两种范式。第一种范式开发了深度学习模型,这些模型以测量基为输入,并输出相应的测量结果概率[223,237]。第二种范式,即更广泛研究的范式,将 DNN 视为生成模型,特别是以自回归架构的形式,如循环神经网络(RNNs)[107]和Transformer[261](见框7)。

当使用自回归模型 h DL (θ) 进行量子态重构时,它通过链式法则将测量结果的联合概率分布分解为条件概率的乘积。具体来说,分布表示 ,其中 s 表示索引 i 前的比特序列。经过这种重构后,模型参数 θ 在 h DL (θ )中通过最小化负对数似然损失来优化。


该损失函数促使模型对与测量结果高度吻合的构型分配更高概率。

方框6:隐性状态重构

隐式状态重构是指学习一个生成模型的任务,该模型作为参数化分布 Q(s;θ) 的作用,目的是优化 θ ,使得 Q(s;θ) 尽可能接近测量结果s上的目标分布 P(s)=Tr(ρ(x) M s ) 。这里, M={ M s } 表示一组预定义的 POVM 元素,例如与计算基测量相对应的元素。这种方法使模型能够在不显式重构其密度矩阵的情况下,重现量子态 ρ(x) 的测量统计特性。

当深度学习模型用于量子态重构时,其性能通过学习到的分布 Q 与真实测量结果分布 P 之间的相似性来评估。与采用标准化准确度度量(等式(8))的属性预测任务不同,量子态重构中没有标准度量。常见的性能度量包括Kullback-Leibler(KL)散度、总变差距离和Wasserstein距离。如果所使用的学习模型在训练样本数量、量子系统的总查询次数以及计算复杂度随量子比特数 N 最多呈多项式增长的情况下,仍能实现 Q 与 P 之间的 ϵ 精度估计,则认为该模型是高效的。

模型预测。深度学习模型经过训练后,可根据其学习目标应用于下游预测任务。在属性预测中,它们用于推断先前未见过的量子态的物理特性。在量子态重构中,训练好的深度学习模型充当采样器,生成比特串样本,这些样本在与训练时相同的测量设置下,能真实还原目标量子态的统计特性。这使得人们无需直接接触物理系统,就能高效地从测量结果的分布中进行采样。

B. 具体的深度学习模型及其应用

下文将介绍深度学习模型在量子属性预测、量子系统重构及量子计算领域的最新进展。为便于理解,我们进一步区分了属性预测类别中的单属性与多属性预测任务。表II汇总了该领域部分代表性研究成果。


图5. 量子系统表征与刻画的深度学习模型示意图。上半部分展示了在单任务和多任务场景中应用深度学习模型预测量子系统特性的流程。无论是单任务还是多任务场景,辅助信息和测量结果都会先经过预处理,以确保与神经网络架构的兼容性。在单任务预测中,深度学习模型用于估算保真度或熵等特定属性。而在多任务场景中,常用策略是学习潜在表征,从而支持保真度预测和相位分类等多种下游任务。下半部分展示了深度学习模型在隐式状态重构中的应用,通过训练神经网络生成能高度复现量子系统测量结果的样本。

1. 预测特定量子性质

与主要设计用于线性属性预测的机器学习(ML)模型不同,神经网络的表达能力使得深度学习(DL)模型能够针对特定属性(无论是线性还是非线性)进行定制化预测,如图1所示。

量子态相似性。与量子保真度类似,量子态相似性是用于描述量子态之间接近程度的量化指标[190]。检测量子态相似性对于验证可扩展量子处理器的可靠性至关重要。量子相似性检测的两大核心任务包括直接量子保真度估计[91]和跨平台量子验证[87]。在直接保真度估计任务中,研究者通过对实验态的副本进行测量,来评估其相对于理论目标态的量子保真度。而在跨平台验证任务中,研究者则通过分别对两个未刻画的实验量子态进行局部测量,来估算它们之间的量子相似性。

直接保真度估计旨在量化实验制备态与目标纯态之间的相似性,同时最小化测量开销。最初的方法采用了一个简单的全连接神经网络(FCNN)来进行多类分类[294]。直观来说, FCNN 以从量子态测量得到的泡利算符期望值的统计估计子集作为输入,并输出保真度预测。训练标签是通过将保真度离散化为预定义区间生成的,这些区间是通过使用理想化的无限测量场景计算得出的。后续研究提出,与其将保真度估计作为分类问题来处理,不如采用回归模型从测量数据[201]以及所探索量子系统的物理参数[82]中估计实验态的保真度。

方框7:深度学习模型中的术语

潜在表征

潜在表示指一组内部变量或特征——通常由深度学习模型自动学习——它们能概括下游任务最相关的信息。通过操作这些潜在表示,模型可更高效地进行属性预测或分类,并提升泛化能力。

迁移学习与少样本学习

这些范式旨在通过利用先前学习任务或模型的知识,以最小的量子计算成本预测新量子系统的特性。具体而言,迁移学习通过调整在某一任务上训练的模型来提升相关任务的性能,而少样本学习则使模型仅需少量标注样本即可实现泛化。这两种方法对于减少数据采集成本高昂的场景下对量子系统的访问次数至关重要。

多模态学习

多模态学习是指模型能够处理并整合来自多种不同来源或数据类型的信息的能力[19]。这类模型通常采用神经网络架构,为每种数据模态配置专用模块——例如使用卷积神经网络(CNN)处理图像类数据,采用循环神经网络(RNN)处理序列数据——随后通过联合层将这些模块融合,从而实现有效信息整合与跨模态推理。当应用于量子系统刻画时,该方法通过整合量子测量结果与物理控制参数等多样化数据,构建出更全面的量子系统表征。

深度生成模型

深度生成模型是通过深度神经网络学习生成与训练期间所见数据样本相似的新数据。当应用于隐式量子态重构任务时,这些模型旨在学习量子测量结果的潜在概率分布。主要实现方式有两种:

· 自回归模型。这类模型通过链式法则,将测量结果的联合概率分布分解为条件概率的乘积。典型应用包括循环神经网络(RNNs)、像素卷积神经网络(PixelCNNs)以及用于神经量子态采样的Transformers模型。

·基于能量的模型。这类模型为每个可能的构型分配一个未归一化的能量值,并通过能量函数定义概率分布。模型通过训练来降低观测样本的能量值,同时对所有构型进行归一化处理。与自回归模型不同,基于能量的模型本质上不需要顺序采样。典型代表包括受限玻尔兹曼机(RBMs)和深度玻尔兹曼机(DBMs)。

跨平台量子验证技术通过实验手段直接比较不同设备生成的量子态。该领域存在多种实现路径:第一种方法将不同设备产生的测量结果分布转化为结构化输入张量,通过卷积神经网络(CNN)进行特征提取和相似性比对[282];第二种方法以量子电路布局为输入,运用图神经网络(GNN)分析电路结构并预测量子保真度[268]。基于多模态学习理论(详见方框7),最新研究提出通过将电路布局与测量数据结合来估算量子态间的重叠度,该方法在包含50个量子比特的模拟实验中展现出显著效果[199]。另有研究尝试估算任意量子态间的保真度,其方案采用CNN模型,以电路的独热编码表示作为输入来预测保真度[253]。

量子纠缠与其他非经典特性。量子纠缠[123]是量子力学区别于经典物理学的根本特征。然而,在任意量子系统中检测和量化纠缠不仅需要大量量子资源,而且在计算上也难以实现[111]。深度学习模型的最新进展提供了一种有前景的替代方法,无需直接从第一性原理进行估算,即可高效预测特定类量子态的纠缠程度。

早期解决这一任务的努力利用了一个简单的 FCNN 来分类纠缠和可分离的二分态[99]。从概念上讲, FCNN 以泡利算符期望值的统计估计作为输入,并输出预测结果。后来的研究开发了更先进的深度学习模型来检测多量子比特态中的多体纠缠[18, 60, 63, 64, 115, 150, 172, 195, 211]。最近的一项工作采用 LSTM 来预测动态演化量子系统中子系统的纠缠熵,仅使用单量子比特和双量子比特测量,规模扩展到100个量子比特[136]。此外,还设计了专门的深度学习模型用于连续变量量子系统的纠缠检测[101]。除了纠缠检测,最近的研究开始探索能够量化纠缠的深度学习模型[79, 152, 168, 208, 210]。超越纠缠的研究开始设计深度学习模型来量化更广泛的量子特性,如非经典性[67]、量子不协调(quantum discord)[153, 242]和非稳定性(nonstabilizerness)[176, 233]。

相分类。相变是多体物理中普遍存在的基本现象,特定物理参数的微小扰动可以导致系统行为的显著变化。相分类并不强制要求访问哈密顿量参数 x 。然而,当 x 可访问时,分类不同相有助于识别相变临界点。当收集的原始数据 τ 对应于一组示例基态向量 时,优化的学习模型可以识别出临界点 x ∗ ,在此处 |ψ( x ∗ )⟩ 发生量子相变。

深度学习模型已被广泛应用于识别经典相变和量子相变参数空间中的临界点或相界。在监督学习范式中,每个训练样本都需要足够数量的测量数据 τ 或辅助信息 z (i) ,以明确该样本所属的物质相态[47]。相比之下,混淆学习[169,259]和预测学习[16,108,221]模型则完全不依赖任何先验辅助信息。

为探索未知物质相态,基于异常检测的深度学习模型[151]能够在缺乏或仅有少量先验数据的情况下,识别潜在的新物质相态。这类模型不仅用于模拟数据测试,还成功应用于量子相态分类及实验数据的完整相图生成[30,147,177,178]。针对深度学习模型在物质相态分类中的可靠性问题,特别是对抗样本的存在性,学界已展开深入研究[142,292]。

在具有中间测量的随机量子电路中也会发生相变现象[234]。这类量子系统中,临界点附近随机测量速率的微小波动会引发输出量子态纠缠熵的剧烈变化。研究这类量子系统的可学习性已成为检测测量诱导相变的重要手段[4,9,21,138]。通过训练卷积神经网络(CNN)从中间测量快照中预测参考量子比特的泡利期望值,预测精度可有效识别相变[78]。近期一项研究采用基于注意力机制的模型,通过区分两种不同乱序态的测量轨迹来识别测量诱导相变[148]。

除上述研究外,深度学习模型还通过利用量子系统的经典先验知识(如纠缠谱[222])而非基于测量数据,实现了对物质相态的分类。除监督学习范式外,通过聚类算法对原始数据进行降维[273],以及分析自编码器的瓶颈[276],也可实现对不同物质相态的无监督分类。

2. 多量子特性预测

量子阴影层析成像技术能够在不进行完整态层析成像的情况下,有效估计多个可观测量的期望值[1]。受此启发,深度学习模型被开发用于同时预测多种物理特性。这些模型从数据集 TDL 中学习可迁移的潜在表示[24](关于潜在表示和迁移学习的详细解释参见框7),捕捉量子态内的结构模式和物理关联。一旦训练完成,这些潜在表示可用于推断训练期间未见过的多种物理特性。从这个意义上说,潜在表示与经典阴影的作用类似,作为量子态的压缩但信息丰富的摘要,用于下游预测任务。

根据潜在表征的构建方式,现有深度学习模型可分为监督学习、半监督学习和自监督学习三种类型(具体概念参见方框7)。本文将重点阐述前两类模型,而自监督学习的相关内容将在后续语言模型范式中展开讨论。

现有的监督学习和半监督学习的深度学习模型通常遵循基于测量的协议,其中测量结果 { s (i) } 作为 τ DL 的输入数据。这些深度学习模型之间的主要区别在于它们如何构建潜在表示以及获取标注样本的相关成本。

在监督表示学习这一领域,开创性的工作是利用生成查询神经网络(GQNN)的概念来学习量子态的数据驱动表示[302]。所学习到的潜在表示能够预测尚未进行的测量基上的测量统计量,并对不同类别的量子态进行聚类。后续研究探索了如何学习可迁移的表示,这些表示可以应用于其他任务。具体来说,训练用于区分量子相位的分类器可以重用所学习到的潜在表示来预测其他物理属性,包括纠缠熵和量子态重叠[284]。此外,训练用于预测泡利期望值的深度学习模型可以迁移至动态量子系统中预测纠缠熵[182]。

在监督表示学习范式中,一种互补方法涉及多任务学习,即训练深度学习模型同时预测多个量子属性。具体而言,每个训练样本都带有多个标签,即 τ DL 中的 维度大于1,且等式(10)中的损失函数计算所有目标属性的预测误差。Wu等人[283]给出了一个代表性例子。他们证明,对于键交替 XXZ 模型的基态,一个训练用于从短程测量预测自旋关联和熵互信息的深度学习模型,也能区分对称性保护拓扑(SPT)相和平凡相。这是通过在学习到的表示上应用降维方法实现的,无需显式相位监督即可揭示相位差异。

半监督表示学习通过结合少量标注数据与海量未标注数据实现高效学习[258]。最新研究表明,该方法仍能可靠预测量子属性(如相位分类)[246]。其核心创新在于采用混合损失函数,将标注数据的监督损失与无监督对比损失相结合。这种对比损失机制能确保具有相似测量统计特征的量子态在潜在表示层面保持高度一致性[282]。

3. 量子系统重构

尽管在大规模量子系统中以显式方式完全重构任意量子态难以实现,但已开发出多种深度学习模型来高效隐式重构结构良好的量子系统。这不仅包括利用生成模型隐式重构量子态,还涵盖预测量子动力学的输出态或其物理特性,以及学习预测量子系统的哈密顿量。

隐式量子态重构。对于隐式态重构,当前关于 NQS 的研究,将DNNs作为生成模型,采用了两种方法:数据驱动和变分法。数据驱动的 NQS 方法通常采用自回归模型或基于能量的模型。

正如在模型实现部分所介绍的,一类广泛研究的用于 NQS 的生成模型是基于自回归架构的[49,230,281]。例如,RNN及其变体已成功应用于从测量数据中隐式重建未知量子态[49,185,191]。这些深度学习模型因其在捕捉复杂量子关联方面的强大表达能力而备受重视。一个值得注意的最新进展是使用Transformer架构,它们擅长建模序列数据中的长程依赖关系。例如,参考文献[54,300]提出了基于Transformer的学习模型,用于重建GHZ态和横向场伊辛模型的基态。

另一种构建 NQS 的主要方法,比自回归模型更早发展,是基于能量生成模型的。这些模型为每个可能的构型分配一个未归一化的能量值,采样过程遵循低能量构型对应高概率的原则。采样通常使用马尔可夫链蒙特卡洛等技术完成。这一类方法中的一个开创性例子是受限玻尔兹曼机(RBM)[121],它是最早应用于量子态重构的架构之一[251,252]。

对于变分方法,所使用的深度神经网络被视为变分假设,用于近似哈密顿量的基态[44]。与数据驱动的方法不同,这种方法专门针对基态估计设计,不需要访问量子测量数据。训练目标是使目标哈密顿量 H(x) 的期望值最小化,从而在由 DNN 定义的表达函数空间中寻找最低能量态。训练后, DNN 的输出模拟了基态向量 |ψ(x)⟩ 的测量统计特性。

这种变分方法可与基于测量数据训练的自回归模型相结合,从而提升量子模拟的准确性[74,157,186]。具体实施时,首先通过自回归模型从噪声量子模拟器生成的实验数据中重建近似基态,随后通过变分优化进一步逼近理想基态。该混合方法已被证实比传统变分方法更高效,且对实验误差具有更强的鲁棒性。

由于本综述侧重于从测量中学习量子系统的AI应用,因此并未全面涵盖所有关于 NQS 的研究。如需了解 NQS 的完整概述,读者可参考文献[48,75,159]。

在显式恢复与隐式恢复之间存在一种值得简要提及的中间方法,即在特定结构假设下显式构建量子态。那些在系统所有切割面上精确意义上具有低纠缠度的量子态[85],可以用张量网络态[68]进行良好近似。一旦学习到张量网络态,就可以从一个与目标分布P(s)高度接近的分布中进行采样。当前研究场景在单空间维度的纯态(即矩阵乘积态)中尤为明显,但对局部纯化的混合态的推广研究也已展开。早期方法主要关注从局部或合适的随机全局测量中实现实际恢复[70,192],而新近研究则为从适当(通常是随机化)数据中严格学习张量网络提供了样本复杂度边界[14,110,141]。这些方法与经典阴影理论也存在密切关联。

预测量子动力学。在量子动力学中,相关的参数化量子态向量变为 |ψ(x;t)⟩:= e −ıH(x)t |ψ0⟩ ,其中 x 表示所探索哈密顿量的经典控制,t 表示演化时间。给定一个包含多个时间点 |ψ(x;t)⟩ ⟩ 的测量数据集,这些时间点对应不同的控制参数,目标是使用深度学习模型来预测未来时间 t ′ 的状态向量 |ψ( x ′ ; t ′ )⟩ 或其物理特性。由于问题的时间序列特性,具有捕捉时间依赖性的顺序深度学习模型自然适合解决此类任务。

早期的一项尝试利用 RNN 和 LSTM 模型来预测自旋模型中随时间演化状态矢量 |ψ(x;t)⟩ 的可观测量期望值[181]。通过将自旋系统参数和一系列过去的测量数据作为输入,这些模型输出未来时间步长的预测期望值。采用相同的方法,序列深度学习模型已被应用于预测由量子电路生成的随时间演化状态的可观测量期望值[183]。最近提出的一种双向深度学习模型不仅能基于其哈密顿量预测动态演化中可观测量的期望值,还能从相关的动态观测数据中预测随时间变化的哈密顿量参数[11]。与上述研究方向不同,受机器学习模型启发,文献[130]开发了一种深度学习模型,通过预测从预设集合中随机抽取的任何输入状态对应的未知量子过程输出特性来模拟量子过程[303]。

除预测封闭量子系统的动力学外,当前研究热点还聚焦于运用深度学习模型模拟开放量子系统的动力学,该领域在量子化学与药物研发中具有广泛应用前景。由于这些内容超出本综述范畴,具体细节可参阅文献[38,46,116,117]。

哈密顿量学习。量子物理的核心在于系统的哈密顿量,它不仅决定着量子态的结构,还主导着量子态的动态演化。鉴于其核心地位,哈密顿量学习[272,278]成为研究热点,该领域致力于通过测量数据推断哈密顿量的底层结构并估算其耦合强度。所学得的模型参数不仅能揭示系统动力学特性,还可用于可扩展量子系统的刻画与验证[45,86],并能显著提升量子模拟的预测能力。

近期研究引入了专用深度学习模型,在特定哈密顿量结构假设(通常包含几何局域性)下,以最小测量开销完成不同哈密顿量学习任务。例如,基于少量局域测量结果训练的 FCNN 已被用于学习和验证稳定子哈密顿量实例的结构,其在量子纠错领域的潜在应用备受关注[255]。在非平衡态条件下,全连接神经网络(FCNNs)也被用于从动态测量数据重构哈密顿量[188,254]。超越前馈架构,循环神经网络(RNNs)通过处理单量子比特测量的时间序列数据,展现出学习时变哈密顿量参数(如驱动伊辛模型参数)的潜力[56]。此外,一项涉及多达27个量子比特的大规模实验研究运用张量ESPRIT和约束流形优化等超分辨率技术,成功学习了超导量子处理器的哈密顿量[114]。这类大规模实验研究也凸显了开发能够适应量子态制备和测量误差的鲁棒哈密顿量学习方法的重要性。

4 . 在量子计算中的应用

除前述应用外,研究者已开始探索深度学习(DL)模型在各类量子计算任务中的潜在应用。

量子系统基准测试。大规模量子处理器的基准测试对于实现可靠的量子计算和量子模拟至关重要[86,198]。基准测试方法能验证量子态的正确制备或量子电路及其组件的精确实现。为提升效率和可扩展性,采用深度学习模型预测特定量子处理器性能是一种颇具前景的方法[118,125,126]。在具体案例中,人们通过集成多个深度学习模型,以时间、矩阵积态的键维数(bond dimension)和系统规模作为输入参数,来评估实验模拟与经典模拟之间的保真度[232]。完成系统基准测试后,通常还能获得关于如何优化当前实验设置的实用建议。值得注意的是,基准测试的概念正日益被视为量子学习理论的重要组成部分。

量子误差缓解(Quantum error mitigation,QEM)。量子误差缓解的概念在抑制量子系统中由噪声引起的估计误差方面起着关键作用[37]。它并非单一方法,而是一系列主要在经典层面操作的方法组合,旨在消除部分量子噪声。根据其算法策略,现有的 QEM 技术可以分为非学习和基于学习的方法。非学习类别包括零噪声外推[247]和虚拟蒸馏[137]等方法。相比之下,基于学习的方法可以进一步分为采用传统机器学习[72,73,239]和基于深度学习的方法,本文讨论主要集中在后者。这些方法在近期实验实现中对缓解量子噪声至关重要,但在可扩展性方面面临重大障碍,需要电路规模超过指数级的采样复杂度[203,243]。

当前应用于 QEM 的深度学习模型属于基于测量的协议,其中噪声测量结果{s(i)}作为模型的输入,相应的估计期望值作为标签。遵循这一范式, FCNN 结合任务特定辅助信息z(i)已被开发用于缓解多种场景中的错误,包括量子比特噪声谱学[279]、小规模量子电路[146]、量子近似优化算法[216]和哈密顿量模拟[305]。除了这些应用外,一种通过数据增强赋能的深度学习模型被引入,以实现直接在硬件生成的数据上进行训练,从而提高对设备特定噪声的适应性[167]。此外,非消息传递图Transformer被提出以提高在不同电路架构和噪声类型中的性能[20]。与直接应用深度学习模型预测误差缓解的可观测量并行,基态估计的另一种解决方案涉及使用 NQS 从噪声测量数据中重建近似基态,然后进一步通过经典优化来最小化相对于目标哈密顿量的能量[25]。

量子纠错。尽管量子误差缓解对于现代量子处理器作为中间步骤至关重要,但量子纠错(QEC)仍然是实现容错量子计算的最终途径。深度学习模型已成功应用于 QEC ,特别是在解码过程中,它们在某些情况下优于传统方法。这些应用可以分为识别特定量子错误的发生,从而推导出实际的纠错操作[22,240,270,301],以及生成量子解码配置[40],其中训练后,模型可以高效计算任何给定综合征的逻辑运算符的可能性。虽然两种方法都使用测量综合特征作为深度学习模型的输入,但前者通常被视为分类任务,类似于属性预测,而后者属于生成学习,类似于隐式状态重构。基于学习的解码器面临的一个具体挑战是在容错量子存储器中错误测量导致的综合征识别错误。深度学习的概念也被常规用于识别新的量子纠错码,但这一应用超出了本综述的范围。

增强型变分量子算法。变分量子算法(VQAs)仍是研究热点领域,它不仅具有丰富的理论分析,更在实际应用中大显身手。鉴于已有大量相关综述文献[27,50,80,249,250],本文不作全面综述,而是聚焦于利用深度学习模型提升VQAs性能与扩展性的最新进展。

与直接预测数字量子计算机输出的量子态特性不同,深度学习增强的变分量子算法(VQAs)旨在提升优化效率和电路部署效果。在优化方面,研究者开发了深度学习模型来识别高质量初始参数[94,140,162,220],并作为替代优化器预测梯度轨迹[53,135,145,171,263]。为提升性能,深度神经网络(DNNs)被用于设计数据编码器和量子门阵列布局[119,200,293]。此外,强化学习和扩散模型也被探索用于发现紧凑的门序列以实现电路编译,从而进一步促进实际部署[93,96,215]。

C. 高级主题

深度学习的黑箱特性给理解其在可扩展量子系统中的行为带来了巨大挑战。因此,与机器学习模型不同,深度学习模型的基本原理仍大部分未被探索。然而,近年来在可解释人工智能理论的发展上取得了显著进展,这使得我们能够更好地理解、可视化和解释深度学习模型[218]。一个显著的例子是在基态线性性质预测中, DNN 已被证明能提供可证明的预测准确性保证[275]。此外,在相位分类中,当使用的 DNN 具有足够的表达能力时,其输出可以有效地被具有闭合解的代理函数所替代,从而无需显式训练[15]。在状态重构的背景下,多项研究探讨了 NQS 的表达能力,即底层神经架构能有效表示的量子态类别。研究结果表明,条件关联和纠缠熵是主导因素[100,231,288,298]。尽管取得了这些进展,大多数深度学习模型的内部运作机制仍然难以捉摸,需要进一步研究以揭示其底层机制。

解决这一问题的另一种方法是开发可解释的深度学习模型。透明且可解释的深度学习模型不仅能提升量子特性预测的可靠性,还能增强物理学家对其作为推动科学知识发展的强大工具的信心。该研究方向已取得若干进展[66,71,76,90,95,139,224,267,297]。这些研究的核心原则在于揭示输入数据与潜在表征之间的关联。借助降维算法(如t-SNE算法[257]),研究者可直观展示数据表征在高维表征空间中的分布情况。关于量子系统可解释深度学习模型的最新进展,可参阅本综述[277]。

除了提升可解释性之外,建立深度学习模型的可迁移性同样至关重要——即拓展其从简单系统到复杂系统、从小规模到大规模量子体系的适用范围。该领域的突破有望大幅减少数据采集、训练和预测所需的量子资源,从而构建更具扩展性和效率的学习框架。目前已有初步进展:例如,基于不同尺寸一维里德伯原子数据训练的深度学习模型,即便真实相图具有高度尺寸依赖性[271],仍能有效预测训练过程中未涉及的更大系统相图。

V. 语言模型范式

生成式人工智能[42],以大型语言模型(LLMs)[55]为代表,自2020年代初迅速崛起以来,已彻底改变了人工智能研究格局及其社会影响。这一演进过程中的里程碑是GPT框架[36]的开发,该框架确立了两阶段训练范式:先在大规模未标注文本语料库上进行预训练,再进行任务特定的微调。虽然Transformer架构[261]和预训练-微调策略[170,204,205,219]本身并不新颖,但它们的结合揭示了一个显著的实证现象——神经规模法则(Neural Scaling Law)[143],即模型性能会随着模型规模、训练数据和计算资源的增加而可预测地提升。这一洞见在分布式计算技术进步的支持下,使得拥有数百亿参数的LLMs(如ChatGPT和DeepSeek)能够在各类自然语言任务中达到甚至超越人类水平[55]。LLMs的成功引发了人们对于探索类GPT架构在表征和刻画可扩展量子系统潜力的与日俱增的浓厚兴趣。下文将首先概述这类方法的基本原理,随后讨论其应用及前沿课题。

方框8:语言模型中的术语

基础模型

基础模型是通过自监督学习目标,在广泛且多样化的数据集上训练而成的大规模通用型AI模型。以GPT为代表的这类模型,能够习得灵活多样的表征能力和处理能力,只需少量额外训练即可适配各类下游任务。它们通常采用深度Transformers等先进神经架构,从而能够捕捉跨模态的复杂模式与关联关系。凭借这种灵活且可迁移的知识特性,基础模型已成为近年来人工智能领域突破性进展的基石。

Transformer架构

Transformer是一种基于自注意力机制的深度学习架构,旨在建模序列内部的依赖关系,无论其长度或位置如何。其核心在于用多头自注意力机制替代循环结构,从而实现高效的并行化处理并捕捉长距离相关性。对于输入序列,自注意力模块通过加权求和计算表示


其中Q、K和V分别表示从输入序列中提取的可训练查询矩阵、键矩阵和值矩阵,dk为特征维度。该机制使Transformer能够有效学习上下文相关关系,从而成为GPT等现代大语言模型(LLM)的核心架构。

预训练和微调

预训练与微调是大型语言模型(如GPT)中广泛应用的两阶段训练范式。在预训练阶段,模型通过自监督目标从海量未标注文本语料库中学习通用语言模式与表征。在量子应用领域,这可能涉及跨不同场景的测量结果分布学习。微调阶段则通过在较小规模的标注数据集上训练,使预训练模型进一步适应特定任务或领域。这种训练方式使GPT模型能在广泛任务中表现出色,例如针对纠缠熵数据或特定量子硬件噪声特征进行微调。

A. 总体方案

在量子系统刻画领域,类G...

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
汕头一酒店春节涨至4200元一晚?工作人员:今天最新价格为1650元,还有房

汕头一酒店春节涨至4200元一晚?工作人员:今天最新价格为1650元,还有房

极目新闻
2026-02-11 22:26:02
富士康创始人郭台铭:“若两岸爆发冲突,我会誓死守护台湾”

富士康创始人郭台铭:“若两岸爆发冲突,我会誓死守护台湾”

百态人间
2026-02-12 15:21:00
12306新增“低人一等座”提醒

12306新增“低人一等座”提醒

新快报新闻
2026-02-12 19:11:22
日本悍然扣押中国渔船,赢下大选的高市早苗,开始对中方疯狂试探

日本悍然扣押中国渔船,赢下大选的高市早苗,开始对中方疯狂试探

现代小青青慕慕
2026-02-13 19:52:22
中日海上交锋,日本船只直扑钓鱼岛,中方4船镇场,占据绝对优势

中日海上交锋,日本船只直扑钓鱼岛,中方4船镇场,占据绝对优势

知鉴明史
2026-02-12 18:22:31
绝望?印尼媒体:印尼U17被分到死亡之组,又踢中国很危险!

绝望?印尼媒体:印尼U17被分到死亡之组,又踢中国很危险!

邱泽云
2026-02-13 15:36:28
马筱梅提前报喜,宝宝意外降生,汪小菲专程赴泰还愿真暖心

马筱梅提前报喜,宝宝意外降生,汪小菲专程赴泰还愿真暖心

天天热点见闻
2026-02-13 08:31:40
TOP14位身高170以上的女神,有颜有灯有演技

TOP14位身高170以上的女神,有颜有灯有演技

素然追光
2026-01-02 02:45:02
揪心!谷爱凌脑出血休克,癫痫发作濒死边缘,母亲泪崩曝细节

揪心!谷爱凌脑出血休克,癫痫发作濒死边缘,母亲泪崩曝细节

古事寻踪记
2026-02-06 07:13:45
樊振东遭遇德甲独特规则,第四盘对手竟然换人出战

樊振东遭遇德甲独特规则,第四盘对手竟然换人出战

卿子书
2026-02-13 16:50:47
春节前车厘子现大面积“翻车”,消费者吐槽收到“陈年僵尸果”,专家:今年春节较晚,受卖家赌涨价压货影响

春节前车厘子现大面积“翻车”,消费者吐槽收到“陈年僵尸果”,专家:今年春节较晚,受卖家赌涨价压货影响

海峡网
2026-02-12 15:30:12
官方通报宁夏餐饮饭店协会超额配置89名负责人:问题属实,选举结果无效

官方通报宁夏餐饮饭店协会超额配置89名负责人:问题属实,选举结果无效

界面新闻
2026-02-13 18:17:29
扎心!甘肃某设计院员工提离职,领导直言4500块的工资外面找不到

扎心!甘肃某设计院员工提离职,领导直言4500块的工资外面找不到

火山詩话
2026-02-12 18:35:50
现货白银涨超5%,现货黄金涨1.27%

现货白银涨超5%,现货黄金涨1.27%

每日经济新闻
2026-02-13 16:38:03
事业有成、家庭幸福的刘佩琦,却晚节不保,败在不争气的侄子身上

事业有成、家庭幸福的刘佩琦,却晚节不保,败在不争气的侄子身上

小熊侃史
2026-02-13 11:24:11
女演员自曝投资失败,从800平大房子搬进80平出租屋:把所有钱放股市,赔了几百万

女演员自曝投资失败,从800平大房子搬进80平出租屋:把所有钱放股市,赔了几百万

大象新闻
2026-02-12 11:45:10
上海一路面发生大规模塌陷,官方回应:坍塌区域为前一天渗漏区

上海一路面发生大规模塌陷,官方回应:坍塌区域为前一天渗漏区

齐鲁壹点
2026-02-13 10:13:13
米兰冬奥短道速滑女子500米:中国三将全力冲刺 遗憾无缘决赛

米兰冬奥短道速滑女子500米:中国三将全力冲刺 遗憾无缘决赛

小兰看体育
2026-02-13 10:35:20
詹姆斯41岁轰三双创5大神迹:历史第一人+湖人队史第二比肩魔术师

詹姆斯41岁轰三双创5大神迹:历史第一人+湖人队史第二比肩魔术师

Emily说个球
2026-02-13 13:55:54
沙特突发政坛地震!萨勒曼国王连发敕令,萨勒曼深夜换血震惊全球

沙特突发政坛地震!萨勒曼国王连发敕令,萨勒曼深夜换血震惊全球

东极妙严
2026-02-13 14:09:34
2026-02-13 20:28:49
人工智能学家 incentive-icons
人工智能学家
人工智能领域权威媒体
4540文章数 37404关注度
往期回顾 全部

科技要闻

独家探访蔡磊:答不完的卷子 死磕最后一程

头条要闻

首次访华前 德国总理默茨在发言中将中欧对比引发关注

头条要闻

首次访华前 德国总理默茨在发言中将中欧对比引发关注

体育要闻

这张照片背后,是米兰冬奥最催泪的故事

娱乐要闻

米兰冬奥摘银 谷爱凌再遭美国网友网暴

财经要闻

华莱士母公司退市 疯狂扩张下的食安隐忧

汽车要闻

探秘比亚迪巴西工厂 居然是这个画风!

态度原创

家居
艺术
时尚
教育
军事航空

家居要闻

中古雅韵 乐韵伴日常

艺术要闻

于右任又一真迹出土!这才是当代“真草圣”

豪门圈著名情侣,拉扯多年,终于修成正果?

教育要闻

家长送女儿“学霸版床上四件套”,女儿天塌了:做噩梦都不敢睁眼

军事要闻

多次成功应对外舰、外机挑衅 太原舰展示052D硬核实力

无障碍浏览 进入关怀版