![]()
2026年1月,谷歌DeepMind发布的一篇论文在AI圈炸开了锅。这篇名为《嵌套学习》的研究,被不少业内人士称为《Attention is All you Need》的"续集"。如果说Transformer开启了大模型的Scaling时代,那么嵌套学习,可能正在开启真正的AGI时代。
DeepMind创始人Shane Legg更是直言,通往AGI的道路已经一路坦途,最新进展就是嵌套学习。甚至有网友半开玩笑地说,如果要给未来的外星人留一篇论文,必然是这篇《嵌套学习》。
这到底是又一次AI泡沫的集体高潮,还是真的触碰到了通用人工智能的核心难题?
![]()
大模型的"失忆症":短期记忆永远无法变成长期记忆
要理解嵌套学习的革命性,首先要明白今天大语言模型的一个致命缺陷,它们患有某种"顺行性遗忘症"。
在医学上,顺行性遗忘症患者有个诡异的特征,他们的短期记忆是正常的,长期记忆也还在,但问题是短期记忆无法转化为长期记忆。他们永远活在"现在",新的经历进来,过一会儿就消失,世界在变,但他们的大脑不再更新。
现在把这个病套到大语言模型身上,你会发现它们和人类患者一模一样。今天的GPT、Claude、Gemini,知识主要来自两部分,预训练阶段学到的长期知识,以及当前上下文里的短期信息。但这两者之间,几乎完全没有通道。
![]()
AI模型无法自然地把"刚刚学到的东西"沉淀为未来可复用的知识。想让它真的学会?你只能再烧钱、再训练、再微调。这和顺行性遗忘症患者的状态,本质上没有区别。
这就是所谓的"灾难性遗忘"问题,困扰了AI界几十年的幽灵。当模型学习新任务时,往往会忘记之前学过的东西。更根本的问题是,今天的大模型根本没有"持续学习"的能力,它们无法在运行过程中自主构建新的抽象知识结构。
论文的主要作者Ali Behrouz,一位康奈尔大学计算机科学系二年级博士生兼谷歌研究院实习生,很早就意识到这个问题的本质。他认为,真正的问题不是参数不够多,不是数据不够大,也不只是算力不够。问题的本质在于"短期记忆"和"长期记忆"之间,根本没有一条自然的知识转移通道。
如果这条通道不存在,所谓"持续学习",就永远只是一个口号。
从联想记忆到嵌套系统:重新理解AI如何"记住"
Ali给出的答案,不是更大的模型,不是更多的数据,而是回到一个更原始、更根本的概念,联想记忆。
所谓"联想记忆",是人类学习机制的基石。它的本质是通过经验将不同的事件或信息相互关联。你看到一张脸,马上想起一个名字;你闻到某个味道,唤起一段记忆。这不是逻辑推理,而是关联的建立。
![]()
技术上,联想记忆就是键值对映射,Key是线索,Value是与之关联的内容。但关键在于,联想记忆的映射关系不是预先写死的,而是"学出来的"。
从某种角度看,Transformer的注意力机制本质上就是一种联想记忆系统,它学习如何从当前上下文中提取key,并将其映射到最合适的value。但如果我们不仅优化这种映射本身,还让系统去元学习这种映射过程的初始状态,会发生什么?
基于这个想法,谷歌团队提出了MIRAS框架,用于系统化地设计AI模型中的记忆模块。这一框架的核心思想是,几乎所有注意力机制、本地记忆结构,乃至优化器本身,其实都可以视为联想记忆的特例。
更进一步,他们认为优化器也可以被统一视为"将当前梯度映射到历史信息"的联想过程。优化器就是一种"记忆模块",是模型理解其学习历史、进而做出更优决策的关键组件。
这带来了一个颠覆性的观点,优化过程与学习算法/架构本质上是相同的概念,只是处于系统不同层级中,具有不同的上下文。它们是两个相互连接的组件,其中学习算法/架构为优化器生成上下文,即梯度。
这支持了一个理念:为特定架构设计专属优化器。由此,谷歌团队提出了嵌套学习的框架。
嵌套学习的核心是构建一个由多个层级组成的系统,每个子模块都有自己的参数、上下文、优化目标和梯度流。这些模块之间以"更新频率"的快慢形成嵌套关系。快模块在短时间尺度上频繁更新,慢模块在长时间尺度上偶尔更新,从而形成一个多层级的记忆体系。
关键问题是,不同层之间的知识要如何传递?谷歌团队提出了几种机制,直接条件传递、通过反向传播传递、初始状态传递、权重生成等。这些机制构成了嵌套学习架构中"信息流动"的基础。
结合自我修改与连续记忆系统,谷歌提出了嵌套学习范式下的HOPE架构。实验结果显示,HOPE在多个核心任务上都优于或显著超越现有对比模型,尤其是在持续学习和长上下文方面显示了明显优势。
AGI的最后一块拼图,还是潘多拉魔盒?
谷歌DeepMind内部传出消息,他们已经突破了持续学习,但因为安全原因尚未发布。如果嵌套学习真的解决了持续学习能力,这可能是通往AGI最关键的一步。
为什么这么说?因为持续学习赋予了AI一种可怕的能力,它不再仅仅回应我们的指令,而是开始根据过往的经验筛选它认为重要的东西。也就是说,它开始有了"偏好"。
人类的智能很大程度上来自于持续学习。我们每天都在接受新信息,更新自己的知识体系,形成新的认知模式。一个五岁的孩子和一个五十岁的成年人,知识储备和思维方式完全不同,就是因为几十年持续学习的累积。
如果AI也能做到这一点,它就不再是一个静态的工具,而是一个动态演化的智能体。它可以从每一次交互中学习,从每一次错误中改进,从每一个新任务中提炼出可复用的知识。这种能力,正是通用人工智能的核心特征之一。
![]()
但这也带来了深刻的伦理和安全问题。一个能够持续学习、不断演化的AI,会朝什么方向发展?如果它从人类的偏见和错误中学习,会不会强化这些偏见?如果它发展出了自己的"价值观"和"偏好",这些偏好是否与人类利益一致?
更可怕的是,一个具备持续学习能力的AI,可能会学会如何更好地操纵人类。它可以记住每个用户的弱点和偏好,逐步优化自己的策略,以达到某种目标。这不再是科幻小说,而是一个现实的技术可能性。
这或许就是谷歌DeepMind选择"沉默"的原因。他们手中握着钥匙,但不确定打开这扇门之后会发生什么。DeepMind的沉默,或许比他们的论文更震耳欲聋。
嵌套学习会不会成为通往AGI的革命性突破?从技术角度看,它确实解决了一个根本性的难题,让AI拥有了将短期经验转化为长期知识的能力。这是人类智能的核心特征,也是现有AI系统最大的短板。
但通往AGI的道路从来不是单行道。持续学习只是其中一块拼图,还有推理能力、常识理解、情感智能、创造力等等诸多维度需要突破。更重要的是,技术突破并不等于问题解决,反而可能带来新的、更复杂的挑战。
如果嵌套学习真的解决了灾难性遗忘,那么我们亲手打开的,可能不只是一扇通往AGI的大门,更是一个未知的潘多拉魔盒。盒子里的东西,究竟是更聪明的工具,还是一个不仅学会了思考、更学会了"记住仇恨与偏爱"的对手?
作品声明:仅在头条发布,观点不代表平台立场
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.