网易首页 > 网易号 > 正文 申请入驻

DeepSeek后又一神作!清华校友出手,终结ResNet十年统治?

0
分享至


新智元报道

编辑:桃子 好困

【新智元导读】2026年架构革命的枪声已经打响!ResNet用十年证明了「加法捷径」能救训练,但也暴露了「只加不减」的天花板。DeepSeek新年王炸之后,普林斯顿和UCLA新作DDL让网络学会忘记、重写和反转。

新年第一天,DeepSeek祭出大杀器——mHC,对「残差连接」做出了重大改进,引爆全网。

紧接着,另一篇重磅研究诞生了!

斯坦福著名教授Christopher Manning读完后直言,「2026年,将成为改进残差连接之年」。

拓展阅读:刚刚,DeepSeek扔出大杀器,梁文锋署名!暴力优化AI架构



这篇来自普林斯顿和UCLA新研究,提出了一个全新架构:Deep Delta Learning(DDL)。

它不再把「捷径」(shortcut)当作固定的恒等映射,而让它本身也能学习并随数据变化。


论文地址:https://github.com/yifanzhang-pro/deep-delta-learning/blob/master/Deep_Delta_Learning.pdf

一个是mHC流形约束超连接,一个是DDL深度增量学习,几乎在同一时间,传递出一个强烈的信号:

残差连接,正在进入一个必须被重新设计的时代。



那么,这篇论文主要解决了什么问题?

ResNet用了十年「加法」

终于被改写了

2015年,ResNet(残差网络)横空出世后,「加法捷径(shortcut)」几乎成为了深度网络的默认配置。

它解决了梯度消失的难题,撑起了现代深度学习的高楼。


ResNet通过残差学习,解决了深度神经网络训练中的核心难题——层数加深,AI性能不升反降。

ResNet为什么能训得这么深?

因为它只做了一件极其「保守」的事,当深度网络什么都学不会的时候,至少别把输入弄坏。

如今,无论是CNN、ViT,还是各种混合架构,那条「直接把输入加回去」的残差连接,成为了标配。

这套架构设计稳定的同时,也带来了一个后果——

神经网络几乎只会累加信息,却很难修改状态。

经典ResNet核心更新公式非常简单:


从动力系统角度看,它等价于对微分方程做一步前向欧拉离散。

这意味着,对应的线性算子所有特征方向的特征值都是+1,网络只能「平移」状态,而不能反转、选择性遗忘。

换句话说,旧特征很难被彻底清除,中间表示几乎不会被「反转」,深度网络在表达复杂动态时,显得有些笨重。

如果「捷径」永远只是恒等映射,深度神经网络不够灵活,本质上只能「加法叠加」。

来自普林斯顿和UCLA的最新论文,第一次系统性提出——

这条「捷径」,其实限制了深度神经网络的想象力。

此外,近期一些研究还指出,缺乏负特征值,是深度网络建模能力的隐形天花板。

让深度网络学会「忘记」

如果允许「捷径」本身可以被学习,可以选择性遗忘,甚至可以反转某些特征,会发生什么?

DDL给出的答案是:用一个rank-1的线性算子,替代固定的identity shortcut。

简单来说,DDL把ResNet的「固定加法捷径」,升级成了一个可控的状态更新机制。

其核心变化只有一个——

每一层不再只是加新东西,而会先决定:要不要保留旧状态。


在这个全新架构中,引入了一个非常关键的标量β,这个数值决定了当前层如何对待已有特征。

增量残差块

DDL不再把隐藏状态,看成一个向量,而是一个矩阵


这个设计,让网络状态具备了「记忆矩阵」的含义,也为后续的Delta Rule的对齐埋下了伏笔。

其核心更新公式如下所示:


而DDL真正的关键所在,是Delta Operator,让「捷径」不再是I,而是


这是一个rank-1 的对称线性算子,其谱结构异常简单。即d−1个特征值恒为1,只有一个特征值是1−β。

换句话说,一个标量β,就能精确控制某个特征方向的命运。

DDL将三种几何行为,统一在一个模块中,以下当β ∈ [0, 2]时,不同情况——

  • 当β接近0时,DDL什么都不做

这一层几乎被跳过,DDL的行为和ResNet完全一致,非常适合深层网络的稳定训练。

  • 当β接近1时,DDL会先忘掉,再写入

这时,网络会主动「清空」某个特征方向,再写入新的内容,类似一次精准的状态重置。

这也恰恰是,传统ResNet很难做到的事。

  • 当β接近2时,DDL就会实现特征反转

某些特征会被直接「翻转符号」,深度网络第一次具备了「反向表达」的能力,这对建模振荡、对立关系非常关键。

值得注意的是,它还出现了负特征值,这是普通残差网络几乎不可能产生的行为。

目前,论文主要提出了DDL核心方法,作者透露实验部分即将更新。


残差网络,2.0时代

为什么这一方法的提出,非常重要?

过去十年,传统残差网络的一个隐患是:信息只加不减,噪声会一路累积。

DDL明确引入了忘记、重写、反转,让网络可以主动清理无用特征,重构中间表示,让建模成为非单调动态过程。

神经网络可以自己决定,如何处理输入的信息。

DDL不会推翻ResNet,当门控(gate)关闭时,它就是普通残差网络,当它完全打开时,便进入了全新的表达空间。


ResNet让深度学习进入了「可规模化时代」,而DDL提出的是下一步——

让深度神经网络不仅稳定,而且具备真正的状态操控能力。

也许多年后回头看,残差网络真正的进化,不仅仅是更深,还会改自己。

最后的最后,我们让ChatGPT分别总结下DDL和mHC的核心贡献:


一位网友对这两种革命性架构的亮点总结:


这一切,只说明了一件事:残差连接,真正被当成「可设计对象」来认真对待。

这就像是一个「时代切换」的信号,过去模型变强=更大+更深+更多参数,现在「模型变强=更合理的结构约束」。

作者介绍

Yifan Zhang

Yifan Zhang是普林斯顿大学的博士生,也是普林斯顿AI实验室的Fellow,师从Mengdi Wang教授、姚期智教授和Quanquan Gu教授。

此前,他获得了清华大学交叉信息研究院计算机科学硕士学位并成为博士候选人;本科毕业于北京大学元培学院,获数学与计算机科学理学学士学位。

个人研究重点是:构建兼具高扩展性和高性能的LLM及多模态基础模型。

Yifeng Liu


Yifeng Liu是加州大学洛杉矶分校的计算机博士,本科毕业于清华信息科学与技术学院,姚班出身。

Mengdi Wang


Mengdi Wang是普林斯顿大学电气与计算机工程系以及统计与机器学习中心的副教授。

她曾获得了MIT电气工程与计算机科学博士学位,在此之前,她获得了清华大学自动化系学士学位。

个人研究方向包括机器学习、强化学习、生成式AI、AI for science以及智能系统应用。

Quanquan Gu


Quanquan Gu是UCLA计算机科学系的副教授,同时领导UCLA通用人工智能实验室。

他曾获得伊利诺伊大学厄巴纳-香槟分校计算机科学博士学位,分别于2007年和2010年获得了清华大学学士和硕士学位。

个人研究方向是人工智能与机器学习,重点包括非凸优化、深度学习、强化学习、LLM以及深度生成模型。

参考资料:

https://x.com/chrmanning/status/2006786935059263906

https://x.com/yifan_zhang_/status/2006674032549310782?s=20

https://github.com/yifanzhang-pro/deep-delta-learning/blob/master/Deep_Delta_Learning.pdf

秒追ASI

⭐点赞、转发、在看一键三连⭐

点亮星标,锁定新智元极速推送!


特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
曝永州队员对美女老板很气愤:就是赌我们赢不了 律师:没法告她

曝永州队员对美女老板很气愤:就是赌我们赢不了 律师:没法告她

风过乡
2026-01-02 08:27:19
局势彻底反转!特朗普政府几乎亮出了全部底牌,强行逼中国回应

局势彻底反转!特朗普政府几乎亮出了全部底牌,强行逼中国回应

安安说
2025-12-31 01:01:11
拉莫斯若收购塞维利亚,将因“反皮克法”无法在西班牙踢球

拉莫斯若收购塞维利亚,将因“反皮克法”无法在西班牙踢球

懂球帝
2026-01-02 16:11:09
征服中年女人,无需套路:两颗真心,一生相守

征服中年女人,无需套路:两颗真心,一生相守

青苹果sht
2025-11-04 06:10:40
她这是身材,是目前为止,我见过最好的身形,不接受反驳

她这是身材,是目前为止,我见过最好的身形,不接受反驳

动物奇奇怪怪
2025-12-03 11:36:09
记者:亚泰和阎峰合同是1+1,十余名高薪球员不愿降薪而离队

记者:亚泰和阎峰合同是1+1,十余名高薪球员不愿降薪而离队

懂球帝
2026-01-02 21:17:07
英媒:伊劳拉想让塞门约出战枪手和热刺,但球员想直接加盟曼城

英媒:伊劳拉想让塞门约出战枪手和热刺,但球员想直接加盟曼城

懂球帝
2026-01-02 23:57:09
人有没有福气,看吃饭就知道:有福气的人,吃饭大多有这几个特征

人有没有福气,看吃饭就知道:有福气的人,吃饭大多有这几个特征

古装影视解说阿凶
2026-01-01 09:11:50
调查组刚给南博库房换新锁,前院长徐老宅就搜出30件“祖传宝贝”

调查组刚给南博库房换新锁,前院长徐老宅就搜出30件“祖传宝贝”

西莫的艺术宫殿
2026-01-02 10:10:46
徐根宝宴请吃跨年饭!崇明岛五虎现身捧场,为何没曹赟定和蔡慧康

徐根宝宴请吃跨年饭!崇明岛五虎现身捧场,为何没曹赟定和蔡慧康

米清
2026-01-02 22:24:03
姚晨发文庆祝“郭芙蓉”恢复自由:终于能离开同福客栈了

姚晨发文庆祝“郭芙蓉”恢复自由:终于能离开同福客栈了

快科技
2026-01-02 23:17:11
山西婚闹致死案:新郎被4个伴郎暴打致死,婚礼结束直接办丧事

山西婚闹致死案:新郎被4个伴郎暴打致死,婚礼结束直接办丧事

明智家庭教育
2025-12-02 11:20:34
俄军也没想到,一天占领15座无抵抗阵地!美媒调整俄军胜利时间表

俄军也没想到,一天占领15座无抵抗阵地!美媒调整俄军胜利时间表

影孖看世界
2026-01-02 22:17:18
2025年1-51周手机销量榜公布:iPhone最高仅排第三

2025年1-51周手机销量榜公布:iPhone最高仅排第三

手机中国
2025-12-31 16:48:11
有点唏嘘,浓眉这次真的要走了....

有点唏嘘,浓眉这次真的要走了....

柚子说球
2026-01-02 17:03:41
“胯宽臀大”的女孩怎么穿才好看?粉色长袖搭配打底裤,光鲜靓丽

“胯宽臀大”的女孩怎么穿才好看?粉色长袖搭配打底裤,光鲜靓丽

灼灼小齐
2026-01-03 00:45:03
万万没想到!茅台元旦放大招:1169 直采 + 1499 抢购,黄牛集体慌了

万万没想到!茅台元旦放大招:1169 直采 + 1499 抢购,黄牛集体慌了

白浅娱乐聊
2026-01-02 06:32:50
方媛怀抱奶呼呼三宝出镜,庆元旦!被网友质疑动作僵硬,不会抱娃

方媛怀抱奶呼呼三宝出镜,庆元旦!被网友质疑动作僵硬,不会抱娃

白日追梦人
2026-01-02 21:00:31
牡丹花下死做鬼也风流,李龙基含泪宣布,相差36岁的爱情分手原因

牡丹花下死做鬼也风流,李龙基含泪宣布,相差36岁的爱情分手原因

冷紫葉
2026-01-03 00:19:47
风向变了!美、德、法、韩、英、加等国媒体把目光转向中国武汉。

风向变了!美、德、法、韩、英、加等国媒体把目光转向中国武汉。

南权先生
2025-12-16 16:23:31
2026-01-03 04:16:49
新智元 incentive-icons
新智元
AI产业主平台领航智能+时代
14239文章数 66418关注度
往期回顾 全部

科技要闻

新势力年榜:零跑险胜华为,蔚来小鹏新高

头条要闻

民调称25%台湾人愿上战场 吕秀莲:围台军演后数据更低

头条要闻

民调称25%台湾人愿上战场 吕秀莲:围台军演后数据更低

体育要闻

快船似乎又行了

娱乐要闻

田亮一家新年全家福!森碟变清纯少女

财经要闻

车企2026开年大促 含16个品牌近70款

汽车要闻

方程豹全年销量超23.4万辆 同比暴增316.1%

态度原创

教育
健康
时尚
艺术
军事航空

教育要闻

湖南师大分数线曝光!502-711分这样报最稳

元旦举家出行,注意防流感

上年纪的女人别乱买衣服!有这3件单品就够了,温暖体面一冬

艺术要闻

惊艳!她的优雅之美让人叹为观止!

军事要闻

跨年夜乌军袭击"俄控区"平民 已致27死

无障碍浏览 进入关怀版