网易首页 > 网易号 > 正文 申请入驻

清华大学突破:AI如何像人类一样从经验中真正学会新知识?

0
分享至


这项由清华大学计算机科学与技术系团队领导的开创性研究发表于2026年2月4日,论文编号为arXiv:2602.04811v1,有兴趣深入了解的读者可以通过该编号查询完整论文。研究团队通过一个全新的评估系统,首次系统性地揭示了大语言模型在知识学习方面的真实能力与局限性。

在人工智能领域,一直存在一个令人困惑的现象:那些在各种测试中表现出色的AI模型,似乎并没有真正学会从经验中获取和保持新知识,就像一个健忘的学霸,每次考试都需要重新翻书。为了解决这个难题,清华大学的研究团队开发了一个名为SE-BENCH的诊断系统,专门用来测试AI是否真的能够像人类一样,将学到的知识内化到自己的"大脑"中。

这个研究的核心创新在于设计了一个巧妙的"伪装实验"。研究团队将广为人知的NumPy编程库进行了彻底的"身份改造",把所有的函数名都替换成了毫无意义的随机字符串,就像把"计算平均值"这个功能重新命名为"kocito"一样。通过这种方式,他们创造了一个AI从未在训练数据中见过的全新编程环境,这样就能准确测试AI是否真的学会了新知识,而不是在背诵之前见过的内容。

研究团队发现了三个令人惊讶的现象,这些发现彻底改变了我们对AI学习机制的理解。首先是"开卷考试悖论":当AI在学习过程中能够查看参考资料时,它反而更难记住这些知识。这就像学生如果总是依赖课本做作业,考试时不让带书就会一头雾水。只有在学习过程中强制AI"闭卷训练",它才能真正将知识压缩存储到自己的参数中。

第二个发现是"强化学习鸿沟":传统的强化学习方法在知识内化方面表现糟糕,即使在闭卷条件下也无法有效学习新知识。研究团队发现这是因为强化学习中的安全机制,比如PPO剪切和负梯度,会阻止模型进行大幅度的参数调整,而这种调整恰恰是内化新词汇表和新概念所必需的。

第三个突破性发现是自我对弈学习的可行性:当AI自己生成学习材料并通过监督学习方式进行训练时,它确实能够成功内化知识。这证明了AI具备从自生成的、甚至带有错误的训练数据中学习的能力,前提是使用正确的优化方法。

一、知识内化的真实挑战

在深入了解这项研究之前,我们需要理解什么是真正的"知识内化"。传统意义上,我们认为AI很聪明,能够回答各种复杂问题。但实际情况更像是一个拥有超强记忆力的学生,他能背诵整本教科书,却无法在没有教科书的情况下应用这些知识解决新问题。

真正的自我进化要求AI能够像终身学习者一样,不断从新经验中吸收知识,并将这些知识永久性地整合到自己的能力体系中。这不仅仅是在推理时优化回答,而是要能够主动学习新技能或知识,就像人类专家在职业生涯中不断积累专业知识一样。

然而,现有的测评方法面临两个根本性障碍。第一个是"先验知识纠缠"问题:当模型解决涉及"新"知识的任务时,我们无法确定它是真的从相关经验中学到了这些知识,还是仅仅在回忆预训练数据中的内容。这就像分不清一个学生是真的理解了数学原理,还是只是记住了题目答案。

第二个障碍是"推理复杂度纠缠":如果AI在复杂任务上失败了,我们很难判断是因为它没有内化必要的知识,还是因为任务本身在逻辑上太困难。这类似于一个学生背会了教科书却在前沿数学问题上失败,我们无法确定失败的原因是记忆缺陷还是逻辑推理能力不足。

为了解决这些问题,研究团队认为需要创建一个类似"大海捞针"测试的环境,在这个环境中,如果知识被成功内化,任务就在算法上变得微不足道;如果知识没有被内化,任务就变得不可能完成。

二、巧妙的知识伪装实验设计

SE-BENCH的核心设计思想就像创造了一门全新的"外语"。研究团队选择了NumPy这个广受欢迎的科学计算库作为基础,但将其彻底"改头换面"。他们将NumPy的268个常用函数映射到完全随机的、毫无语义的标识符上。比如,原来用于计算平均值的numpy.mean函数被重命名为zwc.kocito,所有相关的文档也被重写来描述这个"全新"的ZWC库。

这种设计非常聪明,因为它创造了三个关键特性。首先是"无信息时不可能":由于函数名是完全随机的,在没有文档的情况下,猜对正确API的概率在数学上为零,这完全消除了先验知识的干扰。其次是"有信息时简单":由于底层逻辑与标准NumPy完全一致,对于任何成功内化了映射关系的AI来说,任务都是算法上的小菜一碟。任何理想的自进化方法理论上都应该能达到接近100%的成功率。

第三个特性是"组合泛化":训练集包含的都是单个函数调用就能解决的任务,而测试集则需要组合多个内化的函数,这能评估模型是否超越了简单记忆,实现了真正的泛化能力。

整个构建过程包含三个精心设计的阶段。在伪装阶段,研究团队不仅重命名了函数,还实现了ZWC作为包装库,每个ZWC函数都分配了一个随机的语义空白标识符。为了防止模型通过调用返回的NumPy数组对象上的标准方法来绕过伪装,他们还将所有输入和输出都包装在自定义的ZWCArray类中,确保AI必须严格依赖伪装后的功能API来操作数据。

在问题生成阶段,研究团队使用Claude-4.5-sonnet生成了两类不同的任务。单功能任务确保对函数列表中的每个函数都有100%的覆盖,每个问题专门需要使用特定的函数来解决。多功能任务则通过随机采样10个函数并要求生成需要组合使用至少三个函数的复杂问题,来测试泛化能力。

最后的过滤阶段采用了严格的共识过滤协议。研究团队将生成的问题提供给三个不同的顶级模型:Qwen3-Coder-480B、Gemini-2.5-Pro和GPT-OSS-120B。只有当这三个模型都能独立解决问题并通过所有测试用例时,任务才会被保留。如果三个不同的模型家族都能轻松解决问题,我们就能确信测试模型在SE-BENCH上的失败是由于未能学习新API,而不是问题本身的错误。

三、令人意外的三大发现

通过SE-BENCH这个精心设计的测试环境,研究团队发现了三个彻底颠覆传统认知的现象。这些发现不仅揭示了现有AI学习机制的深层问题,也为未来的改进指明了方向。

第一个发现被称为"开卷考试悖论"。在传统教育中,我们通常认为开卷考试比闭卷考试更容易,因为学生可以参考资料。但在AI的世界里,情况恰恰相反。当AI在训练过程中能够访问参考文档时,它的长期记忆能力反而受到抑制。这就像一个总是依赖GPS导航的司机,永远记不住回家的路。

研究团队发现,只有采用"闭卷训练"方式,在参数更新过程中移除文档,才能迫使模型将外部逻辑压缩到自己的权重中。这种方法的效果远远超过标准的监督微调。更有趣的是,即使在测试时为所有模型提供API文档,使提示格式与开卷训练完全一致,闭卷训练的模型仍然表现更好。这排除了提示一致性是驱动因素的可能性,确认了隐藏文档确实迫使模型直接将知识编码到参数中,实现了与上下文可用性无关的强健内化。

第二个发现揭示了"强化学习鸿沟"。虽然闭卷监督学习能够有效内化知识,但在类似的离线策略设置下应用强化学习,也就是用API文档生成轨迹但在没有文档的情况下训练,却完全失败了。这种鲜明对比表明强化学习中知识内化的机制根本不同,或者说受到了更多限制。

通过系统的消融研究,研究团队发现了导致这种失败的两个具体"安全"机制。首先是剪切机制阻止内化。内化新词汇项需要概率质量的剧烈转移,这实际上是"信任域违规"。通过惩罚大幅度转移,剪切项主动阻止模型编码新定义。其次是标准归一化优势产生负信号,对于平均水平以下的响应产生负面信号。在记忆的脆弱早期阶段,这些负梯度很可能在试探性关联能够巩固之前就将其抹去。

第三个发现证明了自我对弈学习的可行性。虽然标准的强化学习方法Absolute-Zero完全失败,但当研究团队将优化方法切换到监督学习时,模型成功地从自己提出的课程中恢复了显著的性能。尽管这种表现落后于在精心策划的问题和测试用例上训练的闭卷监督学习,但它展示了非平凡的学习能力。这个结果解释了标准自我对弈的失败原因:障碍是优化方法,而不是自我对弈范式本身。模型完全有能力在API文档的条件下生成有效数据来教授自己,失败严格地发生是因为强化学习几乎无法内化知识。

四、深入机制分析与知识演化过程

为了更深入地理解这些现象背后的机制,研究团队进行了详细的错误模式分析和知识演化追踪。他们发现,知识的内化和巩固过程呈现出明显的阶段性特征。

在监督学习阶段,AI表现出一种"概率性"记忆形式:它学会了库的大致结构,但经常用合理的猜测来填补空白。这就像一个学生大致理解了教科书的框架,但在细节上会进行有根据的推测。错误主要表现为ZWCArray属性幻觉,占比高达37%,表明模型倾向于假设ZWCArray具有某些不存在的方法。

当应用强化学习后,错误模式发生了戏剧性转变。ZWCArray属性幻觉的比例下降到仅10%,但这并不是因为强化学习纠正了基本记忆错误。相反,强化学习驱使模型用替代的、有效的实现方式替换不确定的API调用。当AI不确定某个特定的ZWC方法是否存在时,强化学习鼓励它退回到健壮的原语方法,比如使用显式循环而不是幻觉的数组方法。

这揭示了知识从脆弱获取到健壮巩固的演化过程。监督学习内化原始知识但容易产生猜测,而强化学习通过迫使模型用确定的、有根据的实现替换不确定的幻觉来巩固知识,从而确保稳健的利用。然而,强化学习并没有显著减少参数签名错误对齐或ZWC函数幻觉,这证实了之前发现的"强化学习鸿沟":强化学习无法纠正基本的记忆错误,只能优化利用方式。

研究团队还探索了问题和轨迹多样性对知识内化的影响。他们发现问题多样性对知识内化具有关键作用:随着不同问题数量的减少,训练效率逐渐下降,最终性能也会降级。相比之下,响应多样性的影响相对有限,一旦达到足够数量的正确响应,进一步增加响应多样性对训练结果影响很小。这表明在研究自我进化中的知识内化时,应该更多关注问题的质量和多样性。

五、对未来AI发展的深远影响

这项研究的发现对人工智能领域具有深远的影响,不仅改变了我们对AI学习机制的理解,也为未来的技术发展指明了新方向。

SE-BENCH建立了一个严格的诊断平台,就像医学上的标准化测试一样,为评估自我进化能力提供了可靠的工具。研究团队认为,正如长上下文模型必须至少在"大海捞针"测试中展示近乎完美的检索能力来建立基本能力一样,自我进化的AI也应该在能够在复杂开放环境中进化之前展示通过SE-BENCH的能力。

研究发现的机制洞察为几个最近的研究方向提供了理论验证。比如,移除文档对于内化的关键性为OpenAI的深思熟虑对齐等策略提供了实证验证。研究量化了潜在机制:移除上下文中的相关信息不仅仅是数据清理,而是迫使外部逻辑压缩到模型参数中的功能要求。

对于"前缀强化学习"等最近的工作,这项研究增加了重要的细致差别。虽然研究确认强化学习能优化知识利用,但它突出了强化学习在内化新事实内容方面的独特局限性,这与监督学习形成对比。SE-BENCH使研究人员能够严格区分这两种效果:行为泛化与事实内化,这可能有助于设计更有针对性的混合算法。

更重要的是,这项研究为理解AI的学习本质提供了新的视角。它表明,真正的知识内化需要特定的条件和机制,不是所有的学习方法都能实现这个目标。这就像发现了学习的"配方":需要合适的材料、正确的方法和恰当的条件,才能烹饪出真正的知识内化这道"菜"。

研究团队将SE-BENCH定位为自我进化AI社区的诊断工具。就像自我进化的AI在被信任在复杂开放环境中进化之前应该展示基本的学习能力一样,SE-BENCH提供了一个干净、受控的环境来验证这种能力。由于SE-BENCH提供了一个干净、受控的环境,它也成为研究知识内化基本机制的理想平台,可能促进未来的研究发展。

说到底,这项研究揭示了AI学习的一个基本真理:真正的知识内化不是自然发生的,而是需要精心设计的学习环境和优化策略。就像培养一个真正的专家需要正确的教学方法和练习方式一样,让AI真正学会新知识也需要我们重新思考训练的方式。这不仅仅是技术层面的改进,更是对AI智能本质的深层理解。这项研究为我们打开了通向真正智能AI的一扇窗,让我们看到了AI从简单的模式匹配向真正的知识获取和应用转变的可能性。

Q&A

Q1:SE-BENCH具体是怎么测试AI知识内化能力的?

A:SE-BENCH通过创造一个"伪装实验"来测试AI。研究团队将NumPy编程库的所有函数名都替换成随机无意义的字符串,比如把numpy.mean改名为zwc.kocito,创造了一个AI从未见过的全新编程环境ZWC。然后让AI在有文档的情况下学习,在没有文档的情况下解题,这样就能准确判断AI是否真的内化了新知识。

Q2:为什么开卷训练反而不如闭卷训练效果好?

A:这被称为"开卷考试悖论"。当AI在训练过程中能访问参考文档时,它会依赖外部信息而不是将知识真正存储到自己的参数中,就像总用GPS的司机永远记不住路一样。只有在闭卷训练中强制移除文档,AI才会被迫将知识压缩存储到权重中,实现真正的内化。

Q3:强化学习为什么无法帮助AI内化新知识?

A:研究发现强化学习中有两个"安全机制"阻碍了知识内化。一是PPO剪切机制阻止大幅度参数调整,而学习新词汇恰恰需要这种调整;二是负梯度会在知识记忆的早期阶段就将试探性的关联抹去。所以强化学习只能优化已有知识的使用,却无法帮助获得新知识。

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
正式确认,NBA要扩军了,有人欢喜有人愁,马刺成最大输家!

正式确认,NBA要扩军了,有人欢喜有人愁,马刺成最大输家!

罗纳尔说个球
2026-02-10 12:54:44
高市胜选第二天,对中国发起5连问,中方斩钉截铁,送上三点忠告

高市胜选第二天,对中国发起5连问,中方斩钉截铁,送上三点忠告

知鉴明史
2026-02-10 18:49:16
罕见赛程奇观,史诗级连环大战!阿森纳与曼城或一个月内交手5次

罕见赛程奇观,史诗级连环大战!阿森纳与曼城或一个月内交手5次

夜白侃球
2026-02-10 20:09:14
3年大合同+全家迁居!张本智和官宣震撼抉择,日本队慌了

3年大合同+全家迁居!张本智和官宣震撼抉择,日本队慌了

卿子书
2026-02-02 08:59:31
你越来越沉默的原因是什么?网友:尊重每一只青蛙,和它的井

你越来越沉默的原因是什么?网友:尊重每一只青蛙,和它的井

另子维爱读史
2026-01-31 23:01:33
韦林顿真拼!元敏诚甘超为何不上?一将灾难级 有茹萨+贺一然争冠

韦林顿真拼!元敏诚甘超为何不上?一将灾难级 有茹萨+贺一然争冠

刀锋体育
2026-02-11 12:28:15
为了得到巅峰期的伊万卡,姆巴佩到底花了多少“转会费”?

为了得到巅峰期的伊万卡,姆巴佩到底花了多少“转会费”?

罗氏八卦
2025-12-24 11:56:24
国际乒联主席提条件:樊振东可以参加2028奥运会,但有个前提

国际乒联主席提条件:樊振东可以参加2028奥运会,但有个前提

三十年莱斯特城球迷
2025-12-16 23:09:38
1987年总参某领导失言中国不需要航母,萧劲光:把刘华清找来问问

1987年总参某领导失言中国不需要航母,萧劲光:把刘华清找来问问

历史甄有趣
2026-02-07 11:50:11
分手14年,释小龙何洁境遇天差地别,一个身家过亿,一个养不起娃

分手14年,释小龙何洁境遇天差地别,一个身家过亿,一个养不起娃

查尔菲的笔记
2026-01-09 22:17:44
戴旭曾评价:中国从来没有单独彻底战胜过日本,未来一战永绝后患

戴旭曾评价:中国从来没有单独彻底战胜过日本,未来一战永绝后患

现代小青青慕慕
2026-02-11 09:13:27
网友称买到无座票被提醒不能在静音车厢停留,12306:高铁静音车厢不发售无座票

网友称买到无座票被提醒不能在静音车厢停留,12306:高铁静音车厢不发售无座票

极目新闻
2026-02-08 19:38:45
陈芋汐含泪真相太戳心!全红婵该醒醒,1个忠告藏玄机

陈芋汐含泪真相太戳心!全红婵该醒醒,1个忠告藏玄机

卿子书
2026-02-11 13:37:41
皇马换帅倒计时!克洛普要求皇马夏窗签4人,并召回恩德里克

皇马换帅倒计时!克洛普要求皇马夏窗签4人,并召回恩德里克

夜白侃球
2026-02-10 19:57:58
瑙鲁总统8日至12日访问广东 回祖籍地访亲过年

瑙鲁总统8日至12日访问广东 回祖籍地访亲过年

中国网
2026-02-11 10:23:04
降温降雨大风马上到!湖北春节假期天气大反转

降温降雨大风马上到!湖北春节假期天气大反转

环球网资讯
2026-02-11 10:17:19
李亚鹏直播哭了!十年前求黄晓明借钱,他只回4字,至今未提还!

李亚鹏直播哭了!十年前求黄晓明借钱,他只回4字,至今未提还!

乐悠悠娱乐
2026-02-11 08:37:30
判刑宣布后,现场的乱港分子大哭,西方31国如丧考妣,美英跳脚

判刑宣布后,现场的乱港分子大哭,西方31国如丧考妣,美英跳脚

生活魔术专家
2026-02-10 15:15:54
一个人到底能闯多大的祸,网友:最终还是领导扛下了所有!

一个人到底能闯多大的祸,网友:最终还是领导扛下了所有!

另子维爱读史
2026-01-25 22:26:17
兵团司令员程子华:作战违逆毛主席指令,事后被调离部队,最终无缘授衔

兵团司令员程子华:作战违逆毛主席指令,事后被调离部队,最终无缘授衔

寄史言志
2026-02-08 23:26:29
2026-02-11 14:12:49
至顶AI实验室 incentive-icons
至顶AI实验室
一个专注于探索生成式AI前沿技术及其应用的实验室。
1776文章数 160关注度
往期回顾 全部

科技要闻

痛失两位华裔大佬!马斯克为何留不住人心

头条要闻

媒体:俄外长突然放下狠话 令人感觉到一阵阵寒意

头条要闻

媒体:俄外长突然放下狠话 令人感觉到一阵阵寒意

体育要闻

搞垮一个冬奥选手,只需要一首歌?

娱乐要闻

汪峰吃惊!章子怡年前6天高调官宣喜讯

财经要闻

习酒节前价格雪崩控量稳价变空谈

汽车要闻

新款阿维塔12内饰官图:全面升级 兼顾智能与豪华

态度原创

艺术
数码
教育
健康
公开课

艺术要闻

楷书进步缓慢的原因是什么?

数码要闻

中国好屏,标准为尺:全球显示迎来“中国时刻”

教育要闻

中考高考没有了,就公平了吗?很多人不敢细想这个问题

转头就晕的耳石症,能开车上班吗?

公开课

李玫瑾:为什么性格比能力更重要?

无障碍浏览 进入关怀版