网易首页 > 网易号 > 正文 申请入驻

彻底改写Transformer!「能量驱动架构」横空出世,通用推理时代要来了?

0
分享至

新智元报道

编辑:海狸

【新智元导读】UIUC、斯坦福与哈佛联合提出全新「能量驱动Transformer(EBT)」架构,突破传统前馈推理方式,以能量最小化模拟人类System 2思维,预训练扩展性能较Transformer++最高提升35%。下一代AI基础架构新变革,来了!

在Transformer统治AI世界十余年之后,

Attention的时代正在退场,真正的思考刚刚开始——

由UIUC、斯坦福、哈佛等顶尖机构联合提出的Energy-Based Transformer(EBT)震撼登场。

它首次将Transformer架构引入能量建模(Energy-Based Models, EBM)框架,彻底打破「前馈即推理」的旧范式。

论文链接:https://arxiv.org/pdf/2507.02092

EBT既不是轻量化微调,也不是RNN的改进,而是一种彻底不同的推理机制:

模型不再一次性「说完答案」,而是像人类一样从模糊猜测出发,逐步优化推理路径。

EBT训练更高效,推理更精准,对OOD(Out of Distribution)数据更稳健,在训练效率、提升幅度等方面大幅超越前馈式Transformer(Transformer++):

并且,EBT在文本与图像等多模态任务中展现出惊人的扩展性能,有望实现无监督跨模态通用推理。

「一次生成」vs「动态优化」

传统Transformer是一种典型的「前馈预测器」,每次推理过程都是按照从输入prompt,到固定的前向传播路径,再到输出结果一次完成的。

无论问题简单还是复杂,模型都以固定的计算路径和步骤完成推理,无法因难度灵活调整。

每个token都只做一次决策,不进行「反悔」或者「修改」。

这就像一个学生答题时,只能「一遍写完不许改」。

在这种模式下,模型既不能「检查答案」,也无法「修正思路」,更谈不上「深入思考」。

而EBT彻底颠覆了这种机制。

EBT对每个预测都进行多轮优化:

  • 不直接输出token,从随机初始预测开始

  • 模型计算该预测与上下文的「能量值」(兼容性高对应能量低,兼容性差对应能量高)

  • 通过对能量的梯度下降,不断更新预测,逐步将其「调得更合适」

这个过程会持续多轮,直到能量收敛,也就是模型认为这个预测「足够合理」了。

这样EBT最后得到的每个token都是动态计算、多步修正的产物,像在能量地形图中「下山」一样逐步收敛到最优答案。

也就是说,模型的「思考」被建模成了一个小型优化任务,不是一遍完全输出答案,而是反复尝试—验证—更新—收敛。

这个「能量最小化」的过程就是EBT前所未有的System 2 Thinking——更慢,更准,更通用的类人深度思考能力。

EBT「三大跃迁」

EBT的思考过程赋予了它三项关键能力上的根本性突破。

态计算

传统Transformer模型是静态的:每个token、每个预测都使用固定的计算路径和深度,无论问题简单还是复杂,计算量一视同仁。

而EBT拥有动态计算资源分配能力,可以像人一样,遇到简单问题快速处理,遇到困难问题则投入更多思考。

换句话说,EBT可以动态决定要「多想几步」还是「快速收敛」。

不确定度

而且,EBT预测能量的设计决定了它可以在连续空间中表达不确定性。

Transformer虽然能在离散的token输出中使用softmax表示「概率分布」,但在图像、视频等连续 模态中就很难表达不确定性。

EBT预测上下文之间的能量建模,自然地通过能量高低表达了预测的「可信程度」。

这种能力让EBT 能在图像、 视频 等连续任务中识别哪些位置「值得多想」。

自我验证

在能量分数的加持下,EBT天生具备显式的自我验证能力。

每次预测,它都会计算衡量上下文匹配程度的「能量分数」。

这个分数不仅可以用来判断答案是否靠谱,而且可以生成多个候选答案,并挑出能量最低的答案作为最终结果。

这种机制彻底摆脱了对外部打分器或奖励函数的依赖,将「反思」环节引入了模型结构本身。

相比之下,传统架构在「思考能力」上几乎全面溃败。

无论是Feed Forward Transformer还是RNN,都缺乏动态计算分配能力、无法建模连续空间中的不确定性,更谈不上对预测结果进行验证。

就连在生成模型中备受追捧的Diffusion Transformer,也仅在“动态计算”这一项上有所突破,其余两项依然是空白。

相比之下,EBT是目前为止最接近「人类式思考流程」的方案。

越想越准!Transformer望尘莫及

EBT不仅在理论特性上惊艳四座,在实际实验中也表现惊人。

无论有多少数据、加多大批次,模型有多深,EBT都比经典Transformer++学得更快、更省、效果更稳。

具体而言,要达到相同的困惑度(Perplexity),EBT的下降速度快35.98%。也就是说,它只需大约2/3的训练语料,在「数据瓶颈」的情况下更具性价比。

在分布式大批次训练环境下,EBT训练收敛速度比Transformer++快28.46%,深度扩展效率提升5.29%,效率不掉队。

在OOD(Out of Distribution)数据上,EBT也展现出更强的稳健性。

EBT能通过「多轮推理」与「自我验证」大幅缓解泛化性能下降的问题。

相比之下,传统 Transformer++ 的表现几乎不随推理次数改变。

这意味着,哪怕EBT预训练指标比Transformer略差,一旦开始「思考」,它就能后来居上,「越想越准」。

这种「思维带来泛化」的机制,在当前所有主流大模型架构中都是独一无二的。

跨模态通吃:AGI更近一步

只要定义清楚「输入」和「候选预测」,EBT就能在无监督中思考和优化。

EBT的设计不依赖监督、不依赖额外奖励、不局限于文本或编程,天然适用于任意模态与任务。

对于文本,EBT 能自动学出不 同词的规律:简单词能量低,难词能量高,借此自然表达出语义上的不确定性。

在图像任务中,EBT告别Diffusion模型的上百步生成式推理,仅用1%的推理步数就能超越Diffusion Transformer(DiT)在图像去噪和分类上的表现。

视频帧的「不确定性」预测和注意力调整更是不在话下。

这种统一、灵活、高效的推理机制,很可能成为通往「通用智能」的关键。

毕竟,关于大模型的终极疑问始终存在:它们,真的会「思考」吗?

EBT,或许就是首批有资格回答这个问题的架构之一。

参考资料:

https://x.com/AlexiGlad/status/1942231878305714462

https://x.com/du_yilun/status/1942236593479102757

https://arxiv.org/pdf/2507.02092

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
韩媒:中国男足欢呼!参加世界杯的希望增大 若参赛恐引巨大争议

韩媒:中国男足欢呼!参加世界杯的希望增大 若参赛恐引巨大争议

念洲
2026-03-18 10:21:26
伊朗军队总司令表态

伊朗军队总司令表态

极目新闻
2026-03-18 11:31:13
1983年,陈云亲自批示:立即枪毙广东县委书记王仲,原因为何

1983年,陈云亲自批示:立即枪毙广东县委书记王仲,原因为何

芊芊子吟
2026-03-17 23:30:03
A股:今天拉尾盘收涨,科技股大爆发!不出意外,明天会强拉大涨

A股:今天拉尾盘收涨,科技股大爆发!不出意外,明天会强拉大涨

虎哥闲聊
2026-03-18 15:06:29
2-8耻辱出局!切尔西主场0-3被巴黎打爆:4万人狂嘘 老板看台气炸

2-8耻辱出局!切尔西主场0-3被巴黎打爆:4万人狂嘘 老板看台气炸

风过乡
2026-03-18 05:57:04
长沙一对男女当街淫乱:4分钟视频流出,身份被扒,处理结果公布

长沙一对男女当街淫乱:4分钟视频流出,身份被扒,处理结果公布

博士观察
2026-03-17 12:34:17
全新宝马7系,X5曝光!这颜值万万没想到!

全新宝马7系,X5曝光!这颜值万万没想到!

米粒说车唯一呀
2026-03-18 13:49:02
1971年毛主席深夜密令:李德生连夜调一个师进京,林彪都不知道,背后目的细思极恐

1971年毛主席深夜密令:李德生连夜调一个师进京,林彪都不知道,背后目的细思极恐

文史明鉴
2026-03-17 20:03:18
新华社消息|外交部:中方决定向伊朗、约旦、黎巴嫩、伊拉克四国提供紧急人道主义援助

新华社消息|外交部:中方决定向伊朗、约旦、黎巴嫩、伊拉克四国提供紧急人道主义援助

新华社
2026-03-17 16:31:51
10枚导弹直扑日本!朝鲜反击太硬气:你敢伸手,我就敢门口放炮

10枚导弹直扑日本!朝鲜反击太硬气:你敢伸手,我就敢门口放炮

启迪你的思维
2026-03-17 19:36:34
以色列真敢丢核弹!美国顶流媒体警告:四种情况下以色列会动核武

以色列真敢丢核弹!美国顶流媒体警告:四种情况下以色列会动核武

跳跳历史
2026-03-18 14:44:49
美国商务部:在美国制裁下,中国休想制造出数量庞大的AI芯片

美国商务部:在美国制裁下,中国休想制造出数量庞大的AI芯片

涵豆说娱
2026-03-18 12:50:43
三里屯「活人」广告惹争议!令人不适!

三里屯「活人」广告惹争议!令人不适!

品牌头版
2026-03-18 11:23:51
龙湖集团吴亚军长期滞留美国

龙湖集团吴亚军长期滞留美国

亿通电子游戏
2026-03-13 11:49:16
救命!这真的是奥斯卡?女星衣不蔽体,全靠这几位大花来撑场面!

救命!这真的是奥斯卡?女星衣不蔽体,全靠这几位大花来撑场面!

新欧洲
2026-03-17 19:54:59
李均:中共成都市委原书记、市人大常委会原主任、市政协原主席

李均:中共成都市委原书记、市人大常委会原主任、市政协原主席

爱下厨的阿酾
2026-03-18 14:34:00
女足亚洲杯太残酷了:随着中国女足1-2输给东道主,2大劲旅已出局

女足亚洲杯太残酷了:随着中国女足1-2输给东道主,2大劲旅已出局

侧身凌空斩
2026-03-17 19:56:59
徐宪平非法收受他人财物,数额特别巨大

徐宪平非法收受他人财物,数额特别巨大

新京报政事儿
2026-03-18 10:37:03
果然没让大陆失望,郑丽文亮出底牌,赖清德遭“致命一击”?

果然没让大陆失望,郑丽文亮出底牌,赖清德遭“致命一击”?

浪子阿邴聊体育
2026-03-17 13:23:58
刚刚!天津出现奇观:下面乌云压城,上面艳阳高照!多图刷爆朋友圈!你拍到了吗?

刚刚!天津出现奇观:下面乌云压城,上面艳阳高照!多图刷爆朋友圈!你拍到了吗?

天津生活通
2026-03-18 09:42:20
2026-03-18 16:39:00
新智元 incentive-icons
新智元
AI产业主平台领航智能+时代
14749文章数 66698关注度
往期回顾 全部

科技要闻

直连微信!腾讯QClaw宣布大规模放量

头条要闻

特朗普:美国退出北约“无需国会批准”

头条要闻

特朗普:美国退出北约“无需国会批准”

体育要闻

晋级2026世界杯,这届中国女篮啥水平?

娱乐要闻

郑恺苗苗晒全家福 首次公开三胎小女儿

财经要闻

“永不爆雷的宇宙大所”掌门人,自首了

汽车要闻

价格10万级 四驱中级电混轿车银河星耀7来了

态度原创

教育
本地
亲子
房产
军事航空

教育要闻

中考数学,-x2的倒数是多少?太容易出错了

本地新闻

春色满城关不住|粉色浪漫已至,来宁波共赏樱花雨

亲子要闻

亲爱的妈妈,孩子躺平摆烂根本不是你的错!

房产要闻

13万㎡的楼盘,违建7.5万㎡!海南这个开发商胆真大啊!

军事要闻

拉里贾尼生死罗生门:以军称其身亡 他本人社媒账号发信

无障碍浏览 进入关怀版