网易首页 > 网易号 > 正文 申请入驻

DeepSeek后又一神作!清华校友出手,终结ResNet十年统治?

0
分享至


新智元报道

编辑:桃子 好困

【新智元导读】2026年架构革命的枪声已经打响!ResNet用十年证明了「加法捷径」能救训练,但也暴露了「只加不减」的天花板。DeepSeek新年王炸之后,普林斯顿和UCLA新作DDL让网络学会忘记、重写和反转。

新年第一天,DeepSeek祭出大杀器——mHC,对「残差连接」做出了重大改进,引爆全网。

紧接着,另一篇重磅研究诞生了!

斯坦福著名教授Christopher Manning读完后直言,「2026年,将成为改进残差连接之年」。

拓展阅读:刚刚,DeepSeek扔出大杀器,梁文锋署名!暴力优化AI架构



这篇来自普林斯顿和UCLA新研究,提出了一个全新架构:Deep Delta Learning(DDL)。

它不再把「捷径」(shortcut)当作固定的恒等映射,而让它本身也能学习并随数据变化。


论文地址:https://github.com/yifanzhang-pro/deep-delta-learning/blob/master/Deep_Delta_Learning.pdf

一个是mHC流形约束超连接,一个是DDL深度增量学习,几乎在同一时间,传递出一个强烈的信号:

残差连接,正在进入一个必须被重新设计的时代。



那么,这篇论文主要解决了什么问题?

ResNet用了十年「加法」

终于被改写了

2015年,ResNet(残差网络)横空出世后,「加法捷径(shortcut)」几乎成为了深度网络的默认配置。

它解决了梯度消失的难题,撑起了现代深度学习的高楼。


ResNet通过残差学习,解决了深度神经网络训练中的核心难题——层数加深,AI性能不升反降。

ResNet为什么能训得这么深?

因为它只做了一件极其「保守」的事,当深度网络什么都学不会的时候,至少别把输入弄坏。

如今,无论是CNN、ViT,还是各种混合架构,那条「直接把输入加回去」的残差连接,成为了标配。

这套架构设计稳定的同时,也带来了一个后果——

神经网络几乎只会累加信息,却很难修改状态。

经典ResNet核心更新公式非常简单:


从动力系统角度看,它等价于对微分方程做一步前向欧拉离散。

这意味着,对应的线性算子所有特征方向的特征值都是+1,网络只能「平移」状态,而不能反转、选择性遗忘。

换句话说,旧特征很难被彻底清除,中间表示几乎不会被「反转」,深度网络在表达复杂动态时,显得有些笨重。

如果「捷径」永远只是恒等映射,深度神经网络不够灵活,本质上只能「加法叠加」。

来自普林斯顿和UCLA的最新论文,第一次系统性提出——

这条「捷径」,其实限制了深度神经网络的想象力。

此外,近期一些研究还指出,缺乏负特征值,是深度网络建模能力的隐形天花板。

让深度网络学会「忘记」

如果允许「捷径」本身可以被学习,可以选择性遗忘,甚至可以反转某些特征,会发生什么?

DDL给出的答案是:用一个rank-1的线性算子,替代固定的identity shortcut。

简单来说,DDL把ResNet的「固定加法捷径」,升级成了一个可控的状态更新机制。

其核心变化只有一个——

每一层不再只是加新东西,而会先决定:要不要保留旧状态。


在这个全新架构中,引入了一个非常关键的标量β,这个数值决定了当前层如何对待已有特征。

增量残差块

DDL不再把隐藏状态,看成一个向量,而是一个矩阵


这个设计,让网络状态具备了「记忆矩阵」的含义,也为后续的Delta Rule的对齐埋下了伏笔。

其核心更新公式如下所示:


而DDL真正的关键所在,是Delta Operator,让「捷径」不再是I,而是


这是一个rank-1 的对称线性算子,其谱结构异常简单。即d−1个特征值恒为1,只有一个特征值是1−β。

换句话说,一个标量β,就能精确控制某个特征方向的命运。

DDL将三种几何行为,统一在一个模块中,以下当β ∈ [0, 2]时,不同情况——

  • 当β接近0时,DDL什么都不做

这一层几乎被跳过,DDL的行为和ResNet完全一致,非常适合深层网络的稳定训练。

  • 当β接近1时,DDL会先忘掉,再写入

这时,网络会主动「清空」某个特征方向,再写入新的内容,类似一次精准的状态重置。

这也恰恰是,传统ResNet很难做到的事。

  • 当β接近2时,DDL就会实现特征反转

某些特征会被直接「翻转符号」,深度网络第一次具备了「反向表达」的能力,这对建模振荡、对立关系非常关键。

值得注意的是,它还出现了负特征值,这是普通残差网络几乎不可能产生的行为。

目前,论文主要提出了DDL核心方法,作者透露实验部分即将更新。


残差网络,2.0时代

为什么这一方法的提出,非常重要?

过去十年,传统残差网络的一个隐患是:信息只加不减,噪声会一路累积。

DDL明确引入了忘记、重写、反转,让网络可以主动清理无用特征,重构中间表示,让建模成为非单调动态过程。

神经网络可以自己决定,如何处理输入的信息。

DDL不会推翻ResNet,当门控(gate)关闭时,它就是普通残差网络,当它完全打开时,便进入了全新的表达空间。


ResNet让深度学习进入了「可规模化时代」,而DDL提出的是下一步——

让深度神经网络不仅稳定,而且具备真正的状态操控能力。

也许多年后回头看,残差网络真正的进化,不仅仅是更深,还会改自己。

最后的最后,我们让ChatGPT分别总结下DDL和mHC的核心贡献:


一位网友对这两种革命性架构的亮点总结:


这一切,只说明了一件事:残差连接,真正被当成「可设计对象」来认真对待。

这就像是一个「时代切换」的信号,过去模型变强=更大+更深+更多参数,现在「模型变强=更合理的结构约束」。

作者介绍

Yifan Zhang

Yifan Zhang是普林斯顿大学的博士生,也是普林斯顿AI实验室的Fellow,师从Mengdi Wang教授、姚期智教授和Quanquan Gu教授。

此前,他获得了清华大学交叉信息研究院计算机科学硕士学位并成为博士候选人;本科毕业于北京大学元培学院,获数学与计算机科学理学学士学位。

个人研究重点是:构建兼具高扩展性和高性能的LLM及多模态基础模型。

Yifeng Liu


Yifeng Liu是加州大学洛杉矶分校的计算机博士,本科毕业于清华信息科学与技术学院,姚班出身。

Mengdi Wang


Mengdi Wang是普林斯顿大学电气与计算机工程系以及统计与机器学习中心的副教授。

她曾获得了MIT电气工程与计算机科学博士学位,在此之前,她获得了清华大学自动化系学士学位。

个人研究方向包括机器学习、强化学习、生成式AI、AI for science以及智能系统应用。

Quanquan Gu


Quanquan Gu是UCLA计算机科学系的副教授,同时领导UCLA通用人工智能实验室。

他曾获得伊利诺伊大学厄巴纳-香槟分校计算机科学博士学位,分别于2007年和2010年获得了清华大学学士和硕士学位。

个人研究方向是人工智能与机器学习,重点包括非凸优化、深度学习、强化学习、LLM以及深度生成模型。

参考资料:

https://x.com/chrmanning/status/2006786935059263906

https://x.com/yifan_zhang_/status/2006674032549310782?s=20

https://github.com/yifanzhang-pro/deep-delta-learning/blob/master/Deep_Delta_Learning.pdf

秒追ASI

⭐点赞、转发、在看一键三连⭐

点亮星标,锁定新智元极速推送!


特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
张雪机车创始人自曝,国产率未达100%,因用了两个日厂小零件

张雪机车创始人自曝,国产率未达100%,因用了两个日厂小零件

小陆搞笑日常
2026-04-04 14:44:27
毛新宇携家人到杨开慧烈士陵园祭扫

毛新宇携家人到杨开慧烈士陵园祭扫

政知新媒体
2026-04-05 08:48:13
当“李赔光” 遇上 “董圣人”:一场担当的照妖镜,照出了虚伪

当“李赔光” 遇上 “董圣人”:一场担当的照妖镜,照出了虚伪

橙星文娱
2026-04-04 12:40:45
伊外长:美媒歪曲伊朗立场,伊朗从未拒绝前往伊斯兰堡

伊外长:美媒歪曲伊朗立场,伊朗从未拒绝前往伊斯兰堡

潇湘晨报
2026-04-04 19:53:19
“自动铅笔”事件火了,面相学果然权威,带入同学视角天都塌了!

“自动铅笔”事件火了,面相学果然权威,带入同学视角天都塌了!

番外行
2026-04-04 12:52:45
“麻豆传媒·关停”:黄色产业,居然也有寒冬!?

“麻豆传媒·关停”:黄色产业,居然也有寒冬!?

辰星杂谈
2026-04-04 13:38:22
大牌又闹脾气消极罢工!上海或爆重大危机,沪迷:真把自己当爷了

大牌又闹脾气消极罢工!上海或爆重大危机,沪迷:真把自己当爷了

后仰大风车
2026-04-04 07:05:11
1-2!2-1!疯狂一夜,阿森纳爆冷出局,巴萨绝杀,切尔西狂胜晋级

1-2!2-1!疯狂一夜,阿森纳爆冷出局,巴萨绝杀,切尔西狂胜晋级

足球狗说
2026-04-05 05:10:41
中国夫妻“干婚”现象悄然蔓延:无性无爱,无法离婚

中国夫妻“干婚”现象悄然蔓延:无性无爱,无法离婚

李月亮
2026-04-04 20:55:03
开始疯狂抛售黄金!

开始疯狂抛售黄金!

贩财局
2026-04-04 21:16:51
王曼昱半决赛不妙!累到请马琳扔毛巾,郭焱透露坏消息质疑不合理

王曼昱半决赛不妙!累到请马琳扔毛巾,郭焱透露坏消息质疑不合理

三十年莱斯特城球迷
2026-04-04 22:52:08
伊朗总司令下令:打进来的美军全部杀光,不允许留任何一个活口

伊朗总司令下令:打进来的美军全部杀光,不允许留任何一个活口

闻香阁
2026-04-05 04:34:08
热巴83分后再战奇才14+9+7!热火三杀造60败首队 韦尔24+19+7帽

热巴83分后再战奇才14+9+7!热火三杀造60败首队 韦尔24+19+7帽

醉卧浮生
2026-04-05 06:28:06
油价大涨超1.8元/升创新高,清明节假期后(4月7日)汽柴油或再大涨

油价大涨超1.8元/升创新高,清明节假期后(4月7日)汽柴油或再大涨

油价早知道
2026-04-05 01:45:53
索赔2亿!被捧为迅雷救世主的清华高材生,带情妇卷1.7亿跑路5年

索赔2亿!被捧为迅雷救世主的清华高材生,带情妇卷1.7亿跑路5年

毒sir财经
2026-04-03 23:02:02
官宣!34岁奥斯卡因病正式退役 放弃6647万薪水 中超8年赚16亿

官宣!34岁奥斯卡因病正式退役 放弃6647万薪水 中超8年赚16亿

念洲
2026-04-04 21:52:19
当你只是买了一盒药,大数据却判你驾照被注销

当你只是买了一盒药,大数据却判你驾照被注销

黑噪音
2026-04-03 22:47:03
云南3岁女童在家被眼镜王蛇咬伤全身瘫痪,假死3天奇迹生还

云南3岁女童在家被眼镜王蛇咬伤全身瘫痪,假死3天奇迹生还

大象新闻
2026-04-05 00:48:02
沙利文退休之后再谈中国,说了不少以前不敢说的实话

沙利文退休之后再谈中国,说了不少以前不敢说的实话

南宗历史
2026-04-04 14:11:56
离谱误诊!里弗斯二级拉伤赛季报销!41岁的老詹头太惨了吧!

离谱误诊!里弗斯二级拉伤赛季报销!41岁的老詹头太惨了吧!

贵圈真乱
2026-04-05 10:31:42
2026-04-05 11:20:49
新智元 incentive-icons
新智元
AI产业主平台领航智能+时代
14895文章数 66749关注度
往期回顾 全部

科技要闻

花200薅5千算力,Claude冷血断供“龙虾”

头条要闻

媒体:特朗普骑虎难下 再打下去中期选举或颗粒无收

头条要闻

媒体:特朗普骑虎难下 再打下去中期选举或颗粒无收

体育要闻

CBA最老球员,身价7500万美元

娱乐要闻

Q女士反击,否认逼宋宁峰张婉婷离婚

财经要闻

谁造出了优思益这头“怪物”?

汽车要闻

17万级海豹07EV 不仅续航长还有9分钟满电的快乐

态度原创

数码
手机
本地
家居
公开课

数码要闻

好用的剃须刀哪款好?品牌十大排名不同需求精准适配,剃须更舒适

手机要闻

新一代小米SU7完美通过三元锂高温针刺试验:55℃满电针刺 比新国标更严

本地新闻

跟着歌声游安徽,听古村回响

家居要闻

温馨多元 爱的具象化

公开课

李玫瑾:为什么性格比能力更重要?

无障碍浏览 进入关怀版