网易首页 > 网易号 > 正文 申请入驻

深入探讨贝叶斯视角下Transformer的几何特性与模型训练稳定性。

0
分享至

Scaling Laws 已经成为深度学习领域的共识:更大的模型配合更多数据效果往往更好。但当参数量攀升至百亿乃至千亿级别时一个棘手的问题是:训练不稳定性

现代大语言模型动辄堆叠数十甚至上百层,残差连接、跳跃连接、跨层路由机制层出不穷。这些架构设计背后的逻辑就是为了改善梯度流、加快收敛、提升参数利用率。但是在实践中这些技在大规模训练时却经常出现问题:损失函数突然飙升、梯度爆炸、表征坍塌、训练动态变得极度脆弱等等。

大语言模型的运作似乎依赖某种内部贝叶斯几何结构,而许多依赖密集捷径的现代架构,恰恰在无意中破坏了这种结构。

近期研究揭示了一个有趣的现象:Transformer内部确实在执行贝叶斯推理:只不过不是符号化的方式而是几何化的。残差流承载信念状态的累积,注意力机制负责路由概率证据,内部表征则沿着以不确定性为参数的低维流形演化。一旦架构改动扰乱了这种几何结构,模型的可训练性和可靠性都会受到影响。

流形约束超连接(Manifold-Constrained Hyper-Connections,简称mHC)正是在这个背景下提出的。它并非单纯的优化技巧,而是一种架构层面的保护机制,确保模型在扩展过程中维持概率推理所需的内部几何。

接下来的我们将三条近期研究脉络串联起来,讲述一个关于架构、几何与规模化的故事。

Transformer如何用几何实现贝叶斯推理

残差流承载信念状态



不同残差连接模式对应着截然不同的内部信念动态。标准残差连接通过增量式更新维持信念状态的稳定;无约束超连接则引入任意的跨层混合,可能导致信念语义失真;mHC通过强制凸约束恢复稳定性,保护贝叶斯流形不受破坏。

大语言模型到底在"推理"还是仅仅在"模仿"?这个问题在自然语言任务上很难回答因为记忆和推理难以区分。

Aggarwal、Dalal和Misra另辟蹊径,构建了所谓的"贝叶斯风洞",这是一系列合成任务,真实贝叶斯后验可以精确计算而单纯记忆在理论上不可能奏效[1]。实验结果是:小型Transformer能以接近机器精度的水平复现解析后验而同等容量的MLP差距达几个数量级。

从机制角度来看Transformer将推理过程拆解到不同组件:残差流充当持久的信念状态载体;注意力机制执行基于内容的寻址路由,筛选出信念的相关片段;前馈网络(FFN)则负责数值化的后验更新。

每一层都在精炼而不是覆盖,这种组合式累积与贝叶斯滤波的逻辑类似:先验 → 似然 → 后验 → 新先验。残差连接的恒等保持特性在此至关重要:如果没有的话信念状态就无法在深度方向上稳定演进。

值向量汇聚于低维贝叶斯流形



图 2. 虽然Transformer的值向量定义在高维空间,但训练使它们集中到低维贝叶斯流形上。沿流形移动对应不确定性的递减:随着各层整合更多证据,表征从高熵状态平滑过渡到低熵后验信念。

在行为层面之外,模型内部则呈现出了几何特征[1]。键向量沿近似正交的假设轴排列;查询向量随着证据累积,逐步与这些轴对齐;值向量则分布在一个以后验熵为参数的低维流形上。

当不确定性降低时表征沿流形平滑移动,这时后验熵本身成了几何坐标。

训练过程中还存在一个有意思的时序分离:注意力模式会较早固化下来形成固定的"推理框架",而值表征持续精炼以提升后验"精度"。也就是说Transformer先学会"该关注什么"之后才逐渐学会"如何精确编码"。

梯度下降暗含EM算法



图 3. 训练过程中注意力与值表征形成正反馈回路。注意力权重为值分配软性重要性,值则通过梯度下降更新以更好服务于关注它们的查询。这种动态酷似隐式EM过程:注意力扮演软分配角色,值充当自适应原型。

这种几何结构为何会“涌现”?

对注意力梯度动态的分析给出了解释[2]。在交叉熵损失下注意力分数与值向量之间存在正反馈循环:注意力会向那些减误差能力高于平均水平的值倾斜,值则朝着最关注它们的查询方向更新。

这与EM算法的结构高度相似:注意力权重相当于E步的软责任分配,值向量更新相当于M步的责任加权原型调整,查询和键则定义了假设框架。

关键在于这是双时间尺度过程:路由先稳定,内容后精炼。整个动态成立的前提是信号传播稳定、梯度有界。激活值一旦爆炸或消失,类EM机制随即瓦解。

所以可以说贝叶斯流形并非偶然产物,它是梯度下降在几何稳定环境中运行的雕刻结果。

密集跨层捷径的风险

恒等映射的隐性价值



标准残差连接非常简单:如果某层学不到有用的东西那么信号就原封不动通过,这确保了深度对应于增量式精炼。

超连接(Hyper-Connections, HC)对残差进行了泛化,拓宽残差流并在层与流之间引入可学习的混合矩阵[3]。表达能力确实增强了,但固定的恒等路径也因此消失。残差混合一旦完全可学习恒等保持便不再有任何保障。

规模放大的累积效应

无约束混合矩阵深度堆叠时,与恒等矩阵的微小偏差会乘法式累积。实践中的表现是:信号极端放大或衰减、梯度爆炸、大型HC模型训练时损失突增[3]。

这些现象不只是优化层面的麻烦,它们预示着表征语义的崩塌。

贝叶斯几何的破坏

贝叶斯推理依赖信念的序贯精炼,无约束跨层混合把来自不同推理阶段的信念状态混在一起仿佛它们本就兼容。

在几何上表征跳离了后验流形;注意力-值的专门化变得飘忽不定;校准精度下降;隐式EM机制失效。密集的跳过链接打破了贝叶斯推理赖以运作的组合结构。

流形约束超连接(mHC)的设计思路

将残差几何投影到双随机矩阵空间

mHC的核心思想是把残差混合矩阵投影到Birkhoff多面体——即双随机矩阵的空间[3]。这类矩阵非负,行和列加总均为1,恒等矩阵恰好位于其中心。

关键属性的恢复

投影约束带来了几项重要保证。范数得以保持,信号不会爆炸也不会消失;输出始终落在先前信念状态的凸包内,实现凸混合;层层堆叠仍能保持类恒等行为,保证组合闭包性。

mHC在保留宽残差流灵活性的同时,重新引入了标准残差连接原本提供的架构保障。

规模化的几何视角

从贝叶斯几何角度审视,mHC的价值不仅在于稳定训练,它保护的是信念更新的内部语义。

模型规模扩大时,微小的几何畸变会不断累积。破坏恒等保持的架构,在指标暴露问题之前,就已经在悄悄侵蚀概率推理能力。

mHC的根本的观察是:

规模化不只是参数量和数据量的堆砌,更是对那些让学习稳定、推理有意义的几何不变量的守护。

如果Transformer确实依靠几何来推理,那么保护这种几何或许是扩展未来模型时最关键也最容易被忽视的挑战。

参考文献

[1] N. Aggarwal, S. R. Dalal, V. Misra.The Bayesian Geometry of Transformer Attention. arXiv:2512.22471 (2025).

[2] N. Aggarwal, S. R. Dalal, V. Misra.Gradient Dynamics of Attention: How Cross-Entropy Sculpts Bayesian Manifolds. arXiv:2512.22473 (2025).

[3] Z. Xie et al.mHC: Manifold-Constrained Hyper-Connections. arXiv:2512.24880 (2025).

https://avoid.overfit.cn/post/b50b24b81a2146aeb9d711db38971d68

作者:Victor Sletten

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
哈梅内伊开始大范围断网,革命卫队将与中俄军演,伊朗进入关键期

哈梅内伊开始大范围断网,革命卫队将与中俄军演,伊朗进入关键期

温读史
2026-01-10 07:33:53
上海多区陆续发布:致全体居民的一封信

上海多区陆续发布:致全体居民的一封信

上观新闻
2026-01-10 12:14:07
日本人的祖先究竟是谁?美国教授拿出DNA,日本人懵了

日本人的祖先究竟是谁?美国教授拿出DNA,日本人懵了

马探解说体育
2026-01-09 18:22:53
江苏南京一模特太漂亮 身高177cm体重55kg五官精致到无懈可击

江苏南京一模特太漂亮 身高177cm体重55kg五官精致到无懈可击

陈意小可爱
2026-01-10 01:19:36
成都蓉城高兴早了,上海海港又捡了大便宜,新赛季有望四连冠

成都蓉城高兴早了,上海海港又捡了大便宜,新赛季有望四连冠

我就是一个说球的
2026-01-10 21:55:58
1970年江青哥哥带儿子来北京,江青得知对方想见自己后:这事难办

1970年江青哥哥带儿子来北京,江青得知对方想见自己后:这事难办

谈古论今历史有道
2026-01-08 11:50:03
A股:周六晚间传来1大核弹级利空!下周很可能会迎更大级别大行情?

A股:周六晚间传来1大核弹级利空!下周很可能会迎更大级别大行情?

股市皆大事
2026-01-10 16:10:16
王曼昱为何爆冷输削球老将!没想到韩莹赛后这么说!球迷期待孙颖莎!

王曼昱为何爆冷输削球老将!没想到韩莹赛后这么说!球迷期待孙颖莎!

好乒乓
2026-01-10 21:59:10
质疑公司年会“必须穿西装”要求员工被开除!董事长简历超出寻常

质疑公司年会“必须穿西装”要求员工被开除!董事长简历超出寻常

火山诗话
2026-01-10 08:47:12
青岛山姆会员商店今年5月开业

青岛山姆会员商店今年5月开业

先锋新闻
2026-01-10 13:16:25
4-1,29岁中国留洋球员闪耀欧洲:无敌双响炮,率队2连胜+晋级

4-1,29岁中国留洋球员闪耀欧洲:无敌双响炮,率队2连胜+晋级

侧身凌空斩
2026-01-10 21:30:59
12月汽车销量榜出炉!Model Y比第二名多卖近3万辆?

12月汽车销量榜出炉!Model Y比第二名多卖近3万辆?

热点科技
2026-01-10 13:44:23
王石的“千金前妻”:30年婚姻,一场车祸失明,换来一场体面离婚

王石的“千金前妻”:30年婚姻,一场车祸失明,换来一场体面离婚

红大娘娱乐
2026-01-10 20:26:26
多哈冠军赛:林诗栋男单四强出局,奥运亚军意外落败

多哈冠军赛:林诗栋男单四强出局,奥运亚军意外落败

大昆说台球
2026-01-10 22:47:58
天呀,杜海涛竟然现成这样了,沈梦辰对他是真爱啊

天呀,杜海涛竟然现成这样了,沈梦辰对他是真爱啊

草莓解说体育
2026-01-07 01:43:18
科学家让一对情侣在核磁共振里实战,才发现人体惊人真相!

科学家让一对情侣在核磁共振里实战,才发现人体惊人真相!

徐德文科学频道
2026-01-06 19:51:55
好久不见!广东旧将现身业余比赛 曾是杜锋爱徒 因伤遗憾退役

好久不见!广东旧将现身业余比赛 曾是杜锋爱徒 因伤遗憾退役

胖子喷球
2026-01-10 19:41:44
机关单位泛滥的24小时值班制度,正在逼疯广大基层干部

机关单位泛滥的24小时值班制度,正在逼疯广大基层干部

笑熬浆糊111
2026-01-09 16:59:21
最令大龄剩女崩溃的一瞬间在什么时候?看网友的评论引起万千共鸣

最令大龄剩女崩溃的一瞬间在什么时候?看网友的评论引起万千共鸣

夜深爱杂谈
2026-01-10 22:27:12
大动作调仓!机构开年疯狂扫货这些板块,而火爆的芯片、半导体ETF竟被抛售

大动作调仓!机构开年疯狂扫货这些板块,而火爆的芯片、半导体ETF竟被抛售

每经牛眼
2026-01-10 12:51:03
2026-01-11 01:48:49
deephub incentive-icons
deephub
CV NLP和数据挖掘知识
1886文章数 1441关注度
往期回顾 全部

科技要闻

必看 | 2026开年最顶格的AI对话

头条要闻

特朗普签署行政令 宣布进入国家紧急状态

头条要闻

特朗普签署行政令 宣布进入国家紧急状态

体育要闻

怒摔水瓶!杜兰特30+12 难阻火箭遭双杀

娱乐要闻

吴速玲曝儿子Joe是恋爱脑

财经要闻

这不算诈骗吗?水滴保诱导扣款惹众怒

汽车要闻

宝马25年全球销量246.3万台 中国仍是第一大市场

态度原创

时尚
游戏
健康
公开课
军事航空

伊姐周六热推:电视剧《小城大事》;电视剧《轧戏》......

《地平线6》首发为何没PS5版?原来只是没做完!

这些新疗法,让化疗不再那么痛苦

公开课

李玫瑾:为什么性格比能力更重要?

军事要闻

海空英雄高翔逝世 曾驾驶歼-6打爆美军机

无障碍浏览 进入关怀版