网易首页 > 网易号 > 正文 申请入驻

终于,学界找到了深度学习的「牛顿定律」

0
分享至


来源:机器之心

编辑:冷猫

深度学习到底有没有科学理论?

这是一个很微妙的时代。一边是大模型以令人眩晕的速度迭代,参数量从百亿冲向万亿;另一边是学术界的一片沉默 —— 我们依然没有找到深度学习的基本理论,神经网络仍然是个黑盒子。

LeCun 在 X 上直言不讳:「深度学习的理论基础仍然是一片荒原。」Geoffrey Hinton 多次在公开场合表达类似观点:深度学习的成功更像炼金术而非科学 —— 我们知道什么有效,但不知道为什么有效。

但就在这片荒原上,一道裂缝正在被撬开。

最近,由来自 UC Berkeley、哈佛、斯坦福等名校的 14 名研究者组成的研究团队发表了一篇论文,系统性地梳理了过去十年间散落在各处的理论碎片,并将它们拼成了一幅完整的图景。

他们给这个正在形成的理论体系起了一个名字 ——Learning Mechanics(学习力学)。


  • 论文标题:There Will Be a Scientific Theory of Deep Learning

  • 论文链接:https://arxiv.org/pdf/2604.21691

就像经典力学统一了天体运动与地面落体、统计力学架起了微观粒子与宏观热现象之间的桥梁、量子力学重新定义了物质的基本存在方式一样,「学习力学」试图为神经网络的学习过程建立一套第一性原理级别的科学框架。

基础理论去哪了?

过去十五年,深度学习的每一次突破几乎都来自工程直觉和大规模实验,而非理论推导。AlexNet 靠的是 GPU 并行计算的偶然发现;ResNet 来自何恺明对梯度消失问题的修补;Transformer 的注意力机制最初是为了解决序列建模中的长距离依赖……

这种「先做出来再说」的模式带来了惊人的应用成果,但也留下了一个尴尬的现实:深度学习研究者,面对一个训练失败的模型,往往只能靠经验和运气来调参。

论文研究团队的核心贡献在于识别出五条研究线索。它们分别是:

  • 可解的理想化设定:在简化条件下,我们能否精确求解神经网络的动力学?—— 深度线性网络的全局最优解、NTK 极限下的谐振子类比,对应物理学中的谐振子与氢原子。

  • 可处理的极限:当网络趋向某些极端时,行为是否变得可预测?—— 宽网络极限下的惰性 / 丰富二分法、深度 / 批量 / 学习率极限,对应热力学极限。

  • 经验定律:是否存在跨越架构和数据集的普适规律?—— 神经缩放律、稳定性边缘(Edge of Stability),对应开普勒定律与斯涅尔定律。

  • 超参数理论:能否实现超参数的零样本迁移?——μP 参数化、中心流、超参数解耦与消除,对应量纲分析。

  • 普适行为:不同架构 / 数据集学到的表征为何如此相似?—— 表征收敛现象、通用表征假设,对应临界普适性。

这五条线索并非平行发展,而是正在向同一个核心汇聚 ——一个能够描述神经网络学习过程的统一理论框架

我们知道,在拉瓦锡之前,化学本质上也是「炼金术」—— 人们知道混合某些物质会产生特定反应,但不理解背后的原子机理。直到元素周期表和化学反应理论的建立,化学才从经验积累跃升为一门精密科学。

深度学习正处于类似的转折点。过去十年的高速增长,本质上是经验主义驱动的「炼金时代」—— 我们发现了很多有效的配方(ResNet、Transformer、Adam 优化器),但对这些配方为什么有效缺乏根本性的理解。

「学习力学」的目标,就是成为深度学习领域的「元素周期表」。

「学习力学」的五根支柱:物理学的双子星

这是整篇论文最精彩的部分。

可解的理想化设定 —— 神经网络里的「氢原子」

物理学的发展史告诉我们:任何成熟的理论都必须从一个可以精确求解的简化模型开始。经典力学有谐振子和开普勒问题,量子力学有氢原子 —— 这些都是高度理想化的系统,但它们提供了理解更复杂系统的概念基础。

深度学习领域也找到了自己的「氢原子」:


深度线性网络(Deep Linear Networks)。 当激活函数被替换为恒等映射时,一个任意深度的多层感知机退化为一个矩阵乘积。

研究者证明了 SGD 在这种网络上总能找到全局最优解,并且可以精确描述每一步更新的轨迹。更重要的是,深度线性网络的许多定性特征(如奇异值的动态演化)在非线性网络中也得到了保留。

NTK(Neural Tangent Kernel)极限。 当神经网络的宽度趋于无穷大时,网络在训练过程中的行为可以用一个固定的核函数来描述 —— 这就是 NTK 理论的核心洞见。在这个极限下,神经网络的训练等价于在由 NTK 定义的再生核希尔伯特空间(RKHS)中进行核回归。这意味着我们可以用核方法的语言来精确预测无穷宽网络的训练动态。

论文特别强调了 NTK 与量子力学的类比:NTK 极限下的神经网络,其行为类似于量子力学中的谐振子或氢原子 —— 两者都是可以通过解析方法完全求解的「玩具模型」,但又蕴含着真实系统的关键物理特征。

在无限宽度下,网络的输出函数。关于参数 θ 的变化可以用一个时间无关的核函数来刻画,而这个核函数在训练过程中保持不变 —— 这与量子系统中哈密顿量守恒有着异曲同工之妙。

可处理的极限 —— 当网络变得「无限大」

如果上一部分问的是「最简单的神经网络是什么」,那么这部分问的就是「当网络的某个维度推向极端时会发生什么」。这正是物理学中热力学极限的思维模式:通过研究粒子数趋于无穷的系统,获得对有限系统的洞察。

深度学习中已经发现了多个这样的「极限」:

宽网络极限(Lazy vs. Rich Regime)。 这是近年来最重要的理论发现之一。当网络宽度增加时,训练动态会进入两种截然不同的状态:

  • 惰性 regime(Lazy Training):网络参数几乎不离开初始化附近,功能上等价于核方法。此时网络的表现像一个「懒惰的学生」—— 它不愿意真正改变自己,只是用初始状态的微小扰动来拟合数据。

  • 丰富 regime(Feature Learning):网络的特征表示在训练过程中发生实质性变化,真正学会了有用的内部表征。

这两种 regime 之间的转变取决于宽度、深度、学习率和批量大小之间的微妙平衡。这一工作严格刻画了这个相变边界,而论文指出这一发现的意义远超技术细节 —— 它揭示了神经网络训练中存在真正的「相变」现象,就像水在 0°C 结冰一样,神经网络的行为在某些临界点会发生质的改变。

其他重要极限还包括:

  • 深度极限:当层数趋于无穷时,某些架构表现出连续动力学的特征

  • 批量极限:大批量训练与小批量训练之间存在系统性差异

  • 学习率极限:极小学习率对应梯度流,极大学习率则触发全新的动力学

这些极限研究的共同价值在于:它们将离散的、有限的经验观察,转化为连续的、可分析的数学对象

经验定律 —— 深度学习版的「开普勒定律」

这部分是实证发现 —— 就像开普勒从第谷的观测数据中提炼出行星运动三定律一样,深度学习研究者也从海量实验中总结出了若干跨越架构和数据集的普适规律。


神经缩放律(Neural Scaling Laws)是其中最著名的一个。模型的测试损失随计算量、参数量或数据量的增加呈现幂律衰减:

其中 α 是依赖于任务和架构的幂律指数。这个规律的惊人之处在于它的普适性:无论你用的是 Transformer 还是 ResNet,无论任务是语言建模还是图像分类,幂律关系都成立,只是指数不同。

另一个重要的经验规律是稳定性边缘(Edge of Stability, EoS)。当使用较大学习率训练时,梯度的最大特征值(即 Hessian 矩阵的最大特征值)会自动稳定在 2/η 附近( η 为学习率)。

这种现象被称为「稳定性边缘」,它暗示了深度学习优化过程中存在某种自组织临界性(Self-Organized Criticality)—— 这与沙堆坍塌、地震发生等自然界中的临界现象共享相同的数学结构。

论文将其类比为光学中的斯涅尔定律(Snell's Law):斯涅尔描述了光在不同介质界面上的折射行为但没有解释其底层原因(那需要麦克斯韦方程组);EoS 描述了训练过程中梯度稳定在临界值的现象,但其深层机制仍有待「学习力学」的完整框架来揭示。

超参数理论 —— 深度学习版的「量纲分析」

任何一个调过模型的人都知道痛苦:学习率设太大爆炸,太小不收敛;batch size 和学习率必须配合调整;不同层的权重衰减该不该一样?这些超参数的选择长期以来依赖经验和网格搜索,缺乏系统性的指导原则。

μP(Maximal Update Parameterization)的出现改变了这一切。 μP 框架提供了一种优雅的解决方案:通过对参数初始化和更新规则进行特定的缩放变换,使得超参数可以在不同规模的模型之间零样本迁移。也就是说,你在一个小模型上调好的学习率,可以直接用到同架构的大模型上而无需重新调整。

μP 本质上是深度学习中的「量纲分析」(Dimensional Analysis)

在物理学中,量纲分析允许我们在不完全知道具体方程的情况下,仅通过检查物理量的量纲一致性就能得出重要结论。μP 做的事情类似:它不需要知道损失景观的具体形状,只需要保证不同规模下优化的「量纲」一致,就能实现超参数的可迁移性。

论文还提到了两个相关的重要概念:

中心流(Central Flow)。 这是一种新的参数化方案,旨在让优化轨迹在参数空间中保持良好的几何性质,避免因尺度不一致导致的优化困难。

超参数解耦与消除(Decoupling and Elimination of Hyperparameters)。 更激进的想法是:能否从根本上减少自由超参数的数量?如果能证明某些超参数在理论上是不必要的(或者说可以被其他参数吸收),那么调参这件事本身就会大幅简化。

普适行为 —— 不同的网络学到惊人的相似

不同架构的神经网络,在不同的数据集上训练之后,学到的内部表征竟然高度相似。 这个现象被称为表征收敛(Representation Convergence)或通用表征假设(Universal Representation Hypothesis)。

具体来说,如果你训练两个完全不同的网络 —— 一个是 ResNet,一个是 Vision Transformer—— 在 ImageNet 上训练到收敛,然后比较它们中间层的激活模式,你会发现它们的表征结构出奇地一致。更神奇的是,这种一致性甚至跨模态存在:视觉网络和语言网络在某些抽象层面上展现出相似的表征组织方式。

论文将这一现象类比为物理学中的临界普适性(Critical Universality)。在统计力学中,完全不同的物理系统(如铁磁体和液体 - 气体相变)在接近临界点时会表现出相同的行为 —— 它们的临界指数只依赖于空间的维数和序参量的对称性,而与微观细节无关。这被称为「普适性类」(Universality Class)。

如果深度学习也存在类似的普适性,那就意味着:不管你用什么架构、什么初始化、什么优化器,只要满足某些基本条件,网络就会收敛到同一类「吸引子」表征上。 这不仅能解释为什么不同模型的表现趋于一致,也为理解智能的本质提供了新的视角 —— 也许智能本身就对应着某个高维空间中的「普适性吸引子」。

十个未解之谜

论文的最后部分坦诚地列出了十个尚未解决的关键问题。这些问题既是挑战,也是路线图 —— 任何一个的突破都可能推动「学习力学」从愿景变为现实。

1.非线性动力学的解析理论。目前大部分可解结果局限于线性网络或无限宽极限。真实的有限宽度非线性网络的训练动力学仍然是黑洞。

2.缩放律的起源与断裂点。幂律关系为什么成立?它在什么条件下会失效?最近的一些工作暗示缩放律可能在极高规模下出现相变。

3.惰性与丰富 Regime 的完整相图。 我们知道两种 regime 都存在,但它们之间的过渡区域是什么样子的?是否存在第三种 regime?

4.超参数的「标准模型」。能否建立一个统一的框架,将 μP、中心流等各种参数化方案纳入其中,并给出完整的超参数选择指南?

5.表征收敛的数学证明。普适行为目前主要是实证观察。能否从优化动力学的角度严格证明表征必然收敛?

6.泛化误差的理论上界。为什么过参数化的网络(参数远多于样本数)不会严重过拟合?这个问题困扰了统计学习理论二十年。

7.架构设计的理论指导。能否从第一性原理出发推导出最优的网络架构,而不是靠试错?

8.语言与推理的涌现机制。In-context learning、思维链推理等能力是在什么条件下涌现的?能否预测和控制这种涌现?

9.物理对称性与神经网络归纳偏置的联系。物理世界具有平移不变性、旋转对称性、尺度不变性等 —— 神经网络是否天然编码了这些对称性?还是说这些对称性是从数据中学到的?

10.「学习力学」的形式化公理体系。最终,我们需要一套类似牛顿三定律或量子力学公理的严谨数学框架,而不仅仅是类比和启发式论证。

在过去,关于深度学习理论的问题通常是怎么让模型更高效。「学习力学」提出的则是另一种层次的问题:「支配神经网络学习过程的底层规律是什么?」

科学史上,这样的时刻并不多见。牛顿在苹果树下思考引力的时候,开普勒的行星数据已经在书架上等了他半个世纪。达尔文在贝格尔号上收集标本的时候,孟德尔的豌豆实验已经在修道院的花园里默默进行了八年。

而今天,在 AI 领域每天涌出的无数的进展背后,在每一个深夜还在跑实验的 GPU 集群里,在每一次模型进化的欢呼中 ——「学习力学」所需的全部碎片,可能已经散落在那里了。

需要的只是有人把它们捡起来,拼在一起。

阅读最新前沿科技趋势报告,请访问21世纪关键技术研究院的“未来知识库”


未来知识库是 “21世纪关键技术研究院”建 立的在线知识库平台,收藏的资料范围包括人工智能、脑科学、互联网、超级智能,数智大脑、能源、军事、经济、人类风险等等领域的前沿进展与未来趋势。目前拥有超过8000篇重要资料。每周更新不少于100篇世界范围最新研究资料。 欢迎扫描二维码或访问https://wx.zsxq.com/group/454854145828进入。

截止到2月28日 ”未来知识库”精选的百部前沿科技趋势报告

(加入未来知识库,全部资料免费阅读和下载)

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
“月薪1.6万招人放羊”老板再发声:多人通过初选,但担心条件艰苦留不住人;称就算降薪也要交社保

“月薪1.6万招人放羊”老板再发声:多人通过初选,但担心条件艰苦留不住人;称就算降薪也要交社保

极目新闻
2026-04-25 16:12:24
21岁击败王菲的童颜巨乳富婆,巅峰期却选择主动过气

21岁击败王菲的童颜巨乳富婆,巅峰期却选择主动过气

悠悠说世界
2026-04-25 14:03:58
复婚传闻真相大白仅24小时,李亚鹏高调官宣喜讯,全网恭喜

复婚传闻真相大白仅24小时,李亚鹏高调官宣喜讯,全网恭喜

娱说瑜悦
2026-04-25 15:27:17
合肥飞深圳的飞机上偶遇郭富城,本人很瘦小不年轻很低调不像明星

合肥飞深圳的飞机上偶遇郭富城,本人很瘦小不年轻很低调不像明星

情感大头说说
2026-04-26 20:24:09
6个降压药,3个影响性功能,3个提高性功能,您一定要知道

6个降压药,3个影响性功能,3个提高性功能,您一定要知道

健康科普365
2026-04-24 09:19:57
对中国制造爱不释手!巴基斯坦总统:我们也要生产

对中国制造爱不释手!巴基斯坦总统:我们也要生产

看看新闻Knews
2026-04-26 22:08:05
女演员自曝:曾流产5次失去7个宝宝,如今43岁仍努力拼二胎!

女演员自曝:曾流产5次失去7个宝宝,如今43岁仍努力拼二胎!

猪小艳吖
2026-04-24 13:49:15
大理民宿市场凉透了!7000家民宿厮杀,有人亏百万仍没卖出去…

大理民宿市场凉透了!7000家民宿厮杀,有人亏百万仍没卖出去…

火山詩话
2026-04-23 09:14:07
10国签反华协议!沉默一天后,中方强硬出手:严禁私自接纳美资!

10国签反华协议!沉默一天后,中方强硬出手:严禁私自接纳美资!

离离言几许
2026-04-25 23:30:04
国家其实已经暗示得很明白了,只是很多人一直没真正听明白!

国家其实已经暗示得很明白了,只是很多人一直没真正听明白!

Ck的蜜糖
2026-04-10 17:45:46
1961年,陈赓和家人最后合影,傅涯一脸憔悴,5个孩子陪在身边!

1961年,陈赓和家人最后合影,傅涯一脸憔悴,5个孩子陪在身边!

兴趣知识
2026-04-26 20:21:32
10亿都救不了一命!京东副总裁蔡磊,生命进入倒计时

10亿都救不了一命!京东副总裁蔡磊,生命进入倒计时

听风喃
2026-04-06 11:16:04
别再瞎买了!2026年A股真正的核心赛道,只有这3条(附股)

别再瞎买了!2026年A股真正的核心赛道,只有这3条(附股)

小白鸽财经
2026-04-26 20:30:03
温州一房开倒下!名下房子被卖!

温州一房开倒下!名下房子被卖!

温晓生
2026-04-26 23:42:37
掘金队约基奇在称赞森林狼队戈贝尔的同时,也对裁判进行了抨击

掘金队约基奇在称赞森林狼队戈贝尔的同时,也对裁判进行了抨击

好火子
2026-04-27 04:50:26
赖清德“特使”抵达非洲,全程低调走欧洲转机,接机现场十分寒酸

赖清德“特使”抵达非洲,全程低调走欧洲转机,接机现场十分寒酸

共工之锚
2026-04-27 00:05:25
2-2,9分钟连丢2球,国米爆冷遭意甲第12逼平,无缘5连胜

2-2,9分钟连丢2球,国米爆冷遭意甲第12逼平,无缘5连胜

俯身冲顶
2026-04-27 05:22:35
首发被华为抢了!英伟达急眼:当天火速官宣适配DeepSeek V4

首发被华为抢了!英伟达急眼:当天火速官宣适配DeepSeek V4

快科技
2026-04-25 12:51:02
能不能发生关系,为何永远都是女人说了算?

能不能发生关系,为何永远都是女人说了算?

朗威谈星座
2026-04-13 10:33:16
陶昕然证实浪姐黑幕?孟子义李昀锐闹翻了?孙杨综艺败路人缘?毛晓彤整容过度?恩爱夫妻耍大牌?

陶昕然证实浪姐黑幕?孟子义李昀锐闹翻了?孙杨综艺败路人缘?毛晓彤整容过度?恩爱夫妻耍大牌?

十锤星人
2026-04-25 23:09:37
2026-04-27 06:15:00
人工智能学家 incentive-icons
人工智能学家
人工智能领域权威媒体
4690文章数 37452关注度
往期回顾 全部

科技要闻

涨价浪潮下,DeepSeek推动AI“价格战”

头条要闻

特朗普内阁又一女部长落马:强迫男下属为其提供性服务

头条要闻

特朗普内阁又一女部长落马:强迫男下属为其提供性服务

体育要闻

森林狼3比1掘金:逆境中杀出了多孙穆?!

娱乐要闻

仅次《指环王》的美剧,有第二季

财经要闻

事关新就业群体,中办、国办发文

汽车要闻

预售19.38万元起 哈弗猛龙PLUS七座版亮相

态度原创

艺术
本地
教育
房产
家居

艺术要闻

72米舞台被拆!华晨宇这次玩文旅,翻车了!

本地新闻

云游中国|逛世界风筝都 留学生探秘中国传统文化

教育要闻

官宣揭牌!北二外成都附中迎来新校区,地址在这里

房产要闻

新一轮教育大爆发来了!海口,开始疯狂建学校!

家居要闻

自然肌理 温润美学

无障碍浏览 进入关怀版