网易首页 > 网易号 > 正文 申请入驻

普林斯顿大学:神经网络学会"遗忘"的艺术,让AI拥有选择性记忆

0
分享至


这项由普林斯顿大学的张逸凡、加州大学洛杉矶分校的刘一峰和顾全全,以及普林斯顿大学的王梦迪共同完成的突破性研究于2026年1月1日发表,论文编号为arXiv:2601.00417v1。有兴趣深入了解的读者可以通过该编号在arXiv数据库中查询完整论文。

说起人工智能的学习过程,我们通常认为它就像一个永不满足的收集家,不断地积累和叠加新知识。但这种简单粗暴的累积方式其实隐藏着一个严重问题:AI系统无法像人类一样选择性地遗忘无用信息,也无法灵活地重新组织已有知识。就像一个房间里堆满了各种杂物,虽然东西越来越多,但要找到真正需要的物品却变得越来越困难。

深度残差网络,也就是我们常说的ResNet,自2016年问世以来就像建筑界的钢筋混凝土一样,成为了深度学习的基础设施。它的核心思想非常简单:在每一层网络中都设置一条"高速公路",让信息可以直接跳过复杂的处理步骤,避免在传递过程中丢失。这就好比在城市里修建地下通道,即使地面交通拥堵,重要信息也能快速到达目的地。

然而,这种设计虽然解决了信息传递的问题,却带来了新的困扰。传统的残差连接就像一条只能单向行驶的高速公路,信息只能累积叠加,无法进行任何形式的删减或重新组织。当网络需要处理复杂的动态变化,比如识别一个物体在不同角度下的样子,或者理解语言中的语境转换时,这种刚性的累积方式就显得力不从心了。

正是在这样的背景下,普林斯顿大学的研究团队提出了一个颠覆性的想法:为什么不让神经网络学会"遗忘"的艺术呢?他们开发了一种名为"深度增量学习"的全新架构,其英文名称Deep Delta Learning简称DDL。这个名字中的"Delta"来自于希腊字母Δ,在数学和物理学中通常表示变化量或差值,完美地概括了这项技术的核心理念。

深度增量学习的工作原理可以用一个精妙的比喻来理解:传统的神经网络就像一个只会做加法的计算器,每次处理信息都是简单的累加;而DDL则像一个会魔法的图书管理员,不仅能够添加新书,还能够重新整理书架,甚至在必要时移除过时的书籍,让整个图书馆始终保持最优的状态。

这种魔法的核心在于一个被称为"Delta算子"的数学工具。在几何学中,有一种叫做Householder变换的经典操作,可以将空间中的向量沿着某个方向进行反射,就像照镜子一样。研究团队巧妙地将这种几何变换引入到神经网络的设计中,但与传统方法不同的是,他们让这种变换变得可学习、可调节。

具体来说,DDL引入了三个关键组件,它们协同工作就像一个精密的三重奏。第一个组件是方向向量k(X),它就像一面可以自由调节角度的镜子,决定了信息应该沿着哪个方向进行变换。第二个组件是门控标量β(X),它就像一个精密的调光开关,可以控制变换的强度:当它接近0时,网络几乎不做任何改变,保持原有状态;当它接近1时,网络会进行投影操作,有选择性地保留某些信息;当它接近2时,网络会进行完全的反射操作,实现信息的彻底重组。第三个组件是值向量v(X),它携带着需要注入的新信息。

这种设计的巧妙之处在于,通过一个简单的标量参数β(X),网络可以在三种完全不同的操作模式之间平滑过渡。这就好比一个变形金刚,可以根据不同的战况在汽车、飞机和机器人三种形态之间自由切换,而控制这种变换的只是一个简单的按钮。

研究团队对这种变换进行了深入的数学分析,发现了一些令人惊喜的性质。从频谱分析的角度来看,Delta算子的所有特征值都可以用一个简单的公式描述:除了一个特征值为1-β(X)之外,其余所有特征值都等于1。这意味着大部分信息维度保持不变,只有沿着特定方向k(X)的信息会发生变化。这种设计既保证了信息传递的稳定性,又提供了足够的灵活性来处理复杂的变换。

更有趣的是,当研究团队深入分析β(X)的不同取值时,他们发现这个参数实际上控制着网络的"性格"。当β接近0时,网络变得"保守",倾向于保持现状;当β接近1时,网络变得"选择性",会主动遗忘某些信息;当β接近2时,网络变得"激进",会彻底重组现有信息。这种连续的性格变化为神经网络提供了前所未有的表达能力。

DDL还解决了一个长期困扰深度学习的问题:如何让网络具备负特征值的动态行为。在传统的残差网络中,所有的变换都是正向累积的,这限制了网络模拟复杂动态系统的能力,比如振荡、对抗或周期性行为。而DDL通过引入可控的几何变换,让网络能够产生负特征值,从而模拟更丰富的动态行为。

从实现的角度来看,DDL的设计非常优雅。整个架构可以看作是对传统残差块的一个简单扩展,只需要增加三个轻量级的分支来计算k(X)、β(X)和v(X)。这种模块化的设计使得DDL可以很容易地集成到现有的深度学习框架中,而不需要对整体架构进行大规模的修改。

研究团队还发现了DDL与另一个重要概念——Delta规则的深层联系。Delta规则是一种经典的学习算法,广泛应用于联想记忆和线性注意力机制中。DDL实际上是将Delta规则从时间维度扩展到了深度维度,让每一层网络都能够进行"擦除-重写"的操作。这种联系不仅为DDL提供了坚实的理论基础,也为其在序列建模等任务中的应用开辟了新的可能。

当我们把视角从单个网络层扩展到整个网络时,DDL的优势变得更加明显。传统的深度网络就像一条流水线,信息只能单向流动,每个工位只能在现有产品上添加新的部件。而DDL则像一个智能工厂,每个工位不仅能添加新部件,还能拆除不合适的旧部件,甚至重新组装整个产品。这种灵活性使得网络能够更好地适应复杂和动态的任务需求。

在数学特性方面,DDL展现出了一些非常有趣的行为。当输入状态是对角矩阵(即特征之间完全独立)时,Delta算子会引入受控的特征耦合。具体来说,即使输入特征之间没有关联,经过Delta变换后,不同特征之间会产生与反射向量k的几何相干性成比例的相互作用。这种特征混合能力为网络提供了更强的表示学习能力。

研究团队还考虑了DDL在向量状态下的行为,这对应于传统的深度学习场景。当值维度退化为1时,DDL退化为一种动态的标量门控机制,更新规则变成了一种数据依赖的增量形式。这种退化不仅保持了与传统方法的兼容性,还提供了额外的灵活性。

从优化的角度来看,DDL提供了一种全新的参数化方式。门控参数β(X)实际上充当了层间的动态步长,控制着信息的擦除和注入过程。这种设计使得网络能够根据输入的复杂性自适应地调整学习步长,从而实现更稳定和高效的训练。

DDL与现有技术的关系也很有意思。它与Highway网络和门控残差网络有着本质的不同:后者的门控只是在恒等映射和函数映射之间进行插值,而DDL的门控则控制着几何变换本身。与可逆残差网络相比,DDL不强制全局可逆性,而是让网络学习何时使用近可逆变换,何时使用有意的奇异变换来实现受控遗忘。

在与神经常微分方程的关系方面,DDL提供了一种更丰富的动态系统建模能力。传统的Neural ODE对应于简单的动态方程X'=F(X),而DDL对应于更复杂的状态依赖投影动态,能够展现收缩或振荡行为。

虽然这项研究主要专注于理论分析和架构设计,但其潜在的应用价值是巨大的。DDL可以直接应用于任何需要复杂状态转换的深度学习任务,包括但不限于计算机视觉、自然语言处理、强化学习等领域。特别是在需要处理动态环境、时序依赖或对抗性样本的场景中,DDL的选择性遗忘和信息重组能力可能会带来显著的性能提升。

从更广阔的视角来看,DDL代表了神经网络架构设计的一个重要发展方向:从简单的信息累积向智能的信息管理转变。这种转变不仅提升了网络的表达能力,也为我们理解和设计更高效的学习系统提供了新的思路。正如人类智能的核心不在于记住所有信息,而在于知道何时记住、何时遗忘、何时重组,DDL为人工智能系统注入了这种智慧的种子。

说到底,DDL的价值不仅仅在于提供了一种新的网络架构,更在于它打开了一扇通往更智能学习系统的大门。通过让神经网络学会选择性遗忘和信息重组的艺术,我们朝着真正智能的AI系统又迈进了一步。这项研究为未来的深度学习发展提供了新的方向和可能,值得我们持续关注和深入探索。

Q&A

Q1:Deep Delta Learning相比传统残差网络有什么优势?

A:Deep Delta Learning最大的优势是让神经网络学会了"遗忘"的艺术。传统残差网络只能简单累积信息,就像一个只会做加法的计算器,而DDL则像一个会魔法的图书管理员,不仅能添加新信息,还能重新整理甚至移除过时信息。通过一个门控参数β(X),DDL可以在保持原状、选择性遗忘和彻底重组三种模式间平滑切换,为网络提供了前所未有的灵活性和表达能力。

Q2:DDL中的Delta算子是如何工作的?

A:Delta算子基于几何学中的Householder变换,可以把它想象成一面可调节的魔法镜子。它包含三个关键组件:方向向量k(X)决定变换方向,就像调节镜子角度;门控标量β(X)控制变换强度,就像调光开关;值向量v(X)携带新信息。当β接近0时网络保持现状,接近1时进行投影操作选择性保留信息,接近2时进行完全反射实现信息重组。这种设计让网络能够根据需要灵活处理信息。

Q3:DDL技术有哪些实际应用前景?

A:DDL的应用前景非常广阔,特别适合需要处理复杂动态变化的场景。在计算机视觉中,它能帮助模型更好地识别不同角度下的物体;在自然语言处理中,能更好地理解语境转换;在强化学习中,能适应动态环境变化。由于DDL具有选择性遗忘和信息重组能力,它在处理对抗性样本、时序依赖和需要负特征值动态行为的任务中可能会带来显著性能提升。

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
央视大楼,被俗称“大裤衩”,多年后洋人设计师承认设计中含隐喻

央视大楼,被俗称“大裤衩”,多年后洋人设计师承认设计中含隐喻

南权先生
2026-01-14 16:45:29
存款江湖变天

存款江湖变天

第一财经资讯
2026-01-14 23:10:29
绝了,才刚下课!阿隆索就和皇马翻脸,抱怨高层,下课太委屈

绝了,才刚下课!阿隆索就和皇马翻脸,抱怨高层,下课太委屈

阿泰希特
2026-01-14 11:16:22
未来可期!U23国足涌现6新星,锁定国脚名额,邵佳一手下不缺人才

未来可期!U23国足涌现6新星,锁定国脚名额,邵佳一手下不缺人才

国足风云
2026-01-14 21:29:28
春节将至,52岁辛柏青高调传喜讯,朱媛媛终可安心

春节将至,52岁辛柏青高调传喜讯,朱媛媛终可安心

最新声音
2026-01-14 10:17:30
唯一超大城市,深圳超80%市内通勤时间在45分钟以内

唯一超大城市,深圳超80%市内通勤时间在45分钟以内

21世纪经济报道
2026-01-14 16:19:07
大师赛中国3胜2负!连续7场6-2:世界第1晋级,丁俊晖获23万奖金

大师赛中国3胜2负!连续7场6-2:世界第1晋级,丁俊晖获23万奖金

小火箭爱体育
2026-01-15 00:29:14
重磅!中央明确养老金改革方向,2026年起公平养老迈出关键一步

重磅!中央明确养老金改革方向,2026年起公平养老迈出关键一步

扶苏聊历史
2026-01-14 08:05:03
为什么欧美人不炒菜,只有中国有?美国教授:中国活在原始时代

为什么欧美人不炒菜,只有中国有?美国教授:中国活在原始时代

以茶带书
2026-01-14 21:54:28
揭秘女太监“净身”过程,残忍至极令人心疼,过程比男太监要痛苦

揭秘女太监“净身”过程,残忍至极令人心疼,过程比男太监要痛苦

谈史论天地
2026-01-14 15:30:02
宝能姚振华实名举报江苏一地政府,称观致资产被违法拍卖

宝能姚振华实名举报江苏一地政府,称观致资产被违法拍卖

南方都市报
2026-01-14 16:30:12
30岁少妇卖淫价格曝光:内衣纸巾扔一地,被抓画面流出,本人回应

30岁少妇卖淫价格曝光:内衣纸巾扔一地,被抓画面流出,本人回应

博士观察
2026-01-14 22:06:44
绝!李在明故意在访问日本期间,让检查组示意法庭判尹锡悦死刑

绝!李在明故意在访问日本期间,让检查组示意法庭判尹锡悦死刑

我心纵横天地间
2026-01-14 18:57:12
王小川手里还握着冰冷的30亿

王小川手里还握着冰冷的30亿

硅星人
2026-01-14 11:44:32
刚毕业的我给富婆当司机,一次她来我家,对我提出了一个要求

刚毕业的我给富婆当司机,一次她来我家,对我提出了一个要求

青青会讲故事
2025-03-29 13:22:24
女孩找不到妈妈晕倒死亡!妈妈故意躲着,监控曝光,路人未施救

女孩找不到妈妈晕倒死亡!妈妈故意躲着,监控曝光,路人未施救

文雅笔墨
2026-01-15 03:12:24
俺刚怀孕老公就出差,俺无奈去娘家,隔天回家取钱,推开门,蒙了

俺刚怀孕老公就出差,俺无奈去娘家,隔天回家取钱,推开门,蒙了

秀秀情感课堂
2026-01-13 13:40:03
高市安排妥了,李在明在日本吃晚宴,菜还没上桌,中方先回了14字

高市安排妥了,李在明在日本吃晚宴,菜还没上桌,中方先回了14字

兰妮搞笑分享
2026-01-15 01:41:37
闫学晶前脚道歉,人民网就出手!呼吁彻查到底,更严重的还在后面

闫学晶前脚道歉,人民网就出手!呼吁彻查到底,更严重的还在后面

阿钊是个小小评论员
2026-01-15 03:57:32
三只羊大号正式复播!在线人数千人左右、粉丝总数降至951万……

三只羊大号正式复播!在线人数千人左右、粉丝总数降至951万……

柴狗夫斯基
2026-01-14 08:47:34
2026-01-15 06:08:49
至顶AI实验室 incentive-icons
至顶AI实验室
一个专注于探索生成式AI前沿技术及其应用的实验室。
1102文章数 154关注度
往期回顾 全部

科技要闻

携程因涉嫌垄断被市场监管总局调查

头条要闻

外媒揭美对伊朗动手方案:派特种部队对高层实施"斩首"

头条要闻

外媒揭美对伊朗动手方案:派特种部队对高层实施"斩首"

体育要闻

你是个好球员,我们就拿你交易吧

娱乐要闻

网红彭十六偷税被封杀 曾成功转型明星

财经要闻

携程被立案调查,最高或被罚超50亿

汽车要闻

曝Model Y或降到20万以内!

态度原创

游戏
艺术
家居
数码
公开课

重生之我在丧尸末世当检察官

艺术要闻

历代书家集字春联大集合

家居要闻

心之所向 现代建构之美

数码要闻

存储涨价冲击DIY市场,DDR3主板销量意外逆势倍增

公开课

李玫瑾:为什么性格比能力更重要?

无障碍浏览 进入关怀版