网易首页 > 网易号 > 正文 申请入驻

RAG真能提升LLM推理能力?人大最新研究:数据有噪声,RA

0
分享至

[wera.4000313383.net)

新智元报道

:LRST

【新智元导读】RAG通过纳入外部文档可以辅助LLM进行更复杂的推理,降低问题求解所需的推理深度,但由于文档噪声的存在,其提升效果可能会受限。中国人民大学的研究表明,尽管RAG可以提升LLM的推理能力,但这种提升作用并不是无限的,并且会受到文档中噪声信息的影响。通过DPrompt tuning的方法,可以在一定程度上提升LLM在面对噪声时的性能。

近年来,大语言模型已经在多种任务上表现出来出色的能力,然而,由于缺乏事实性信息,当前的LLM经常出现严重的幻觉现象;此外,LLM中的知识是通过其参数进行编码记忆,这意味着要融入新知识需要进一步的微调,消耗大量的时间与计算资源。因此,通过结合外部检索器来增强LLM的性能,已经成为了主流的方案。

尽管RAG在现代LLM中被广泛采用,但对于RAG如何辅助推理的深入理解仍然是一个未解的问题。目前,大多数研究人员主要将RAG视为提供领域特定知识的方法,并常常试图通过RAG使LLM适应特定子领域。然而,RAG在增强推理能力方面的影响尚未得到深入研究。

近日,来自中国人民大学的学者指出,RAG可以帮助LLM提升其推理能力,但其提升有限,并且由于retriever中的噪声,RAG甚至可能造成推理能力的下降。

[htdl.coin-demo.com)

论文地址:https://export.arxiv.org/abs/2410.02338背景与动机我们可以将LLM视为计算 (∣),其中q 代表问题query,是相应的答案。

在这种情况下,检索增强生成(RAG)可以表示为 (∣,1,2,…,),其中 是基于query 检索到的第 个文档。此外,众所周知的prompt方法「思维链」(CoT)显著增强了LLMs的推理能力,它可以表示为 (∣,1,2,…,),其中表示逐步推理的结果。CoT和RAG都旨在将额外的信息融入到输入中,以获得更好的性能。理论上和实验上都已证明,CoT能够有效提升LLMs的推理能力。那么问题是:RAG是否也能增强LLMs的推理能力?

由于LLM的层数有限,其推理能力局限于固定深度。当将推理路径概念化为一棵树时,其最大深度保持不变。思维链(Chain of Thought, CoT)通过逐步推理或解释来生成答案,而不是直接提供答案,其形式化表达为 1=(), 2= (,1),…,=(,1,…,)。

这一过程允许CoT通过多次执行来有效扩展推理深度,随着CoT步骤的增加,潜在地达到无限深度。

相比之下,检索增强生成(RAG)并不支持多次推理;它检索现有的相关信息来生成答案,因此无法堆叠transformer层数。

虽然RAG不能通过堆叠LLM层数来增强推理能力,但检索到的文档可能包含中间推理结果,从而减少了推理所需的层数,使LLM能够处理更复杂的问题,进而帮助提升其推理能力。

树形推理结构对于一个具有 层的推理树 ,令第 层的节点数量为 ,并将第 层的第 个节点表示为 ,。检索到的文档 包含的相关信息可以用来替换某些推理节点的内容。

例如,考虑query「Who is the actor playing Jason on General Hospital?」。

在这种情况下,可能存在一个节点 ,,它表示关于「what is General Hospital?」的信息。如果我们提供一个包含「General Hospital」详细信息的文档,那么 , 的计算就可以通过从该文档中提取相关信息来有效替代。该文档不仅简化了 , 的计算,还消除了所有仅与 , 相连的节点。这些节点只对 , 的推理有贡献,既然 , 的信息可以直接从文档中得出,那么它们的推理就变得不必要了。因此,检索到与节点 , 相关的单个文档可能会减少多个下层节点的存在。这一过程类似于核武器中的裂变反应,减少一个节点会触发其他多个节点的减少。

因此,如果某一层 ′ 的所有节点都通过检索增强生成(RAG)方法被简化,任何 ≤′ 的层都可以被消除,从而有效降低整体的推理深度。

jk.91yingpin.com

如上图所示,推理树由4层组成,我们检索到了3个文档 1, 2, 3,分别为节点 2,0、1,1 和 2,2 提供了信息。通过文档 1,节点 1,0 也可以被移除,因为它只对 2,0 有贡献;通过文档 2,0,1 也不再需要;由于文档 3,节点1,2 和 1,3也可以呗移除。

因此,第一层的所有4个节点都可以通过文档信息消除,这意味着第一层和第零层的所有节点都是不必要的。这样,推理深度从4层减少到了2层。因此,借助相关文档,RAG可以有效降低问题的推理复杂度,使LLM能够解决更复杂的问题。

我们可以观察到,消除单个节点会显著影响较浅层中的许多节点,类似于裂变反应。如果这种裂变过程能够无限扩展,RAG可能会大大增强LLMs的推理能力。

然而,如果裂变反应在某个阈值处停止,其效果可能会受到限制。因此,为了评估RAG能够减少多少层,关键在于确定这一类似裂变的过程是否会终止。理解这一动态对于评估RAG如何提升推理能力以及LLMs在复杂问题求解中的整体效率至关重要。

显然,针对第层,该层节点被erase的概率由两个部分组成,一是由于上层节点的推理不再需要,二是某个文档中包含该节点的信息,假设某个文档中包含该节点的信息的概率为一个常数p,并且在第+1层中有+1%被消除,那么第层节点被消除的概率可以是=(+1)=().

令 ()=()−,表示第 层的增长,可以考虑在 (0,1) 区间内存在一个点 ^,使得 (^)=0。

如果在 >^时,()<0,表明被消除的节点数预期会比前一层更少,意味着裂变反应不会无限传播,而是会达到一个临界阈值。超过这一点后,下一层被消除的节点数预计会比当前层减少,从而限制裂变反应的扩展。

[frs.uaecac.net)

由上图可见,当 ^存在时,节点被erase的概率会逐渐收敛到 ^,无法无限扩张下去,同时 ^的位置取决于层与层之间连接的系数程度和某个文档中包含节点的信息的概率。当层与层之间连接十分稀疏时或者retriever的性能很强,那么就可以使 ^>1,那么节点被erase的概率就会收敛到1,即可erase一整个layer从而降低问题所需的推理深度,使LLM可以解决更复杂的问题。

文档噪声

然而,在实际的RAG场景中,从文档中检索到的信息并不总是可以直接使用,通常需要进一步处理,因为文档可能包含噪声信息,而且有些文档甚至可能包含错误的答案。这些噪声和干扰文档会对性能产生负面影响。

虽然一些研究尝试微调模型以过滤噪声和干扰文档,但该方法使LLM先完成过滤再进行推理,降低了推理能力。此外,一些研究训练另一个过滤模型,但这种方法会导致额外的推理成本,并且无法消除文档中内涵的固有噪声。

因此,出现了一个关键问题:过滤无关文档是否困难,我们能否在有限的层数内有效解决它? 如果过滤噪声所需的成本甚至超过了RAG带来的帮助,那么RAG将无法提升推理能力。

令 表示标记的相关性,=0 表示标记 第 个token 是噪声,否则该token是相关的。令表示LLM的原始注意力层。我们假设期望的自注意力函数为:

[wera.hoojaja.cn)

对模型的微调可以表示为其中,ΔW 表示其余项。

在这种情况下,如果我们需要, 我们需要对于所有的相关的token ,有因此,需要对于所有的相关token,有为一个常数,才可以使得。

Triple-Wise Problem对于输入序列, 表示每个token的相关性。

具体来说,对于每个token ,相关性得分 =0 表示该标记与查询无关。

需要注意的是,计算 不仅仅依赖于该token 和query;相反,它可能需要涉及三个或更多token。

例如,假设输入为「Alice is exhausted, but Bob is still very excited, showing no signs of fatigue. How does Bob feel?」,单词「exhausted」是一个噪声[jk.kohnenki.com)token,应在推理过程中排除。

然而,确定该token的相关性需要考虑[wera.xunxundai.com)query中的「Bob」以及「exhausted」的主语「Alice」。因此,识别[wera.dhaa.net)一个标记的相关性需要来自多个token的信息,而自注意力机制仅在成对之间计算[htdl.0263335.com)关系,这使得在单个transformer层内解决此问题变得困难。

在检索增强生[frs.mu-se-o.com)成(RAG)场景中,我们可以简化这个triple wise problem[htdl.bulktech.net)。通过预先计算文档中的信息,并将这些汇总信息表示为一个或几个额外的toke[joke.juanmami.com)n(virtual token),我们可以仅使用来自token本身、query[jk.qzgy2017.com)和virtual token的信息来评估标记的相关性。在这种情况下,使triple [bfy.h55w.com)wise problem变为了pair-wise problem。在判断tok[htdl.kulink.net)en 是否相关时,不再需要遍历所有的输入token 以寻找和que[james.horaimedaka.com)ry的冲突,仅需遍历所有的virtual token即可。

我们微调一个bert模[wera.szofc.cn)型以获取文档的表征,并通过MLP将其映射到合适的维度,将其作为virtual [htdl.bjjdzf.com)token插入到模型的输入prompt中进行微调,实验结果如下

[htdl.[joke.bizkobe.net)wolaishou.net)

其中gold代表document中只包含一个文档,[jaw.zjkhyn.com)该文档直接包含了query的答案,但该文档中仍然存在一定的噪声;gold di[frs.muzitea.com)s代表文档中包含gold文档以及distracting文档,distractin[wera.pt668.net)g文档中包含错误的答案。由上图可见,DPrompt tuning有效提[wera.pawnmanager.cn)升了LLM在面对噪声时的性能。

参考资料:https://arxiv.org/html/2410.02338v2

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
让全红婵卸下防备的人,不是陈若琳,不是爸妈,是第一次见的她

让全红婵卸下防备的人,不是陈若琳,不是爸妈,是第一次见的她

童叔不飙车
2026-04-10 19:24:50
中央15个巡视组出手了!36家巡视对象公布,这些领域严查到底!

中央15个巡视组出手了!36家巡视对象公布,这些领域严查到底!

细说职场
2026-04-10 16:54:21
很多人不知道:蔡英文、苏贞昌等很多“台独”,其实都是汉奸后代

很多人不知道:蔡英文、苏贞昌等很多“台独”,其实都是汉奸后代

南权先生
2026-03-12 16:09:21
太突然!风向变了,很多人开始抨击全红婵,又印证了谷爱凌的话!

太突然!风向变了,很多人开始抨击全红婵,又印证了谷爱凌的话!

以茶带书
2026-04-04 15:06:37
库里改穿老詹战靴!41岁詹姆斯狂赞:这感觉太特别了

库里改穿老詹战靴!41岁詹姆斯狂赞:这感觉太特别了

仰卧撑FTUer
2026-04-10 22:47:29
北约秘书长:北约可能直接参加霍尔木兹海峡航运保障

北约秘书长:北约可能直接参加霍尔木兹海峡航运保障

参考消息
2026-04-10 11:15:03
收下中国26万桶柴油后,马科斯给南沙131处岛礁改名!菲律宾变脸

收下中国26万桶柴油后,马科斯给南沙131处岛礁改名!菲律宾变脸

趣文说娱
2026-04-09 20:17:07
陈紫函傲人胸围,这“奶白肌”身材是完美无缺?

陈紫函傲人胸围,这“奶白肌”身材是完美无缺?

娱乐领航家
2026-03-12 19:30:08
贺子珍多年后才知毛岸英牺牲真相,当场哭喊:那是我亲生儿子啊

贺子珍多年后才知毛岸英牺牲真相,当场哭喊:那是我亲生儿子啊

老杉说历史
2026-03-21 17:38:19
涉嫌严重违纪违法!河南省铁路建设投资集团总经理孙伟良主动投案

涉嫌严重违纪违法!河南省铁路建设投资集团总经理孙伟良主动投案

大风新闻
2026-04-10 17:27:08
台湾地区前领导人马英九:我不希望台湾成为第二个香港!

台湾地区前领导人马英九:我不希望台湾成为第二个香港!

让你大开眼界
2026-04-07 19:52:12
巴黎05后新星强势崛起,欲撼动姆巴佩的“法兰西王座”

巴黎05后新星强势崛起,欲撼动姆巴佩的“法兰西王座”

星耀国际足坛
2026-04-11 02:20:37
迟重瑞,已皈依佛门,不生孩子家族显赫,财富差距掩盖了他的才华

迟重瑞,已皈依佛门,不生孩子家族显赫,财富差距掩盖了他的才华

混沌录
2026-04-09 18:45:25
美国媒体发出警告,特朗普对伊发动战争,正在把亚洲拱手输给中国

美国媒体发出警告,特朗普对伊发动战争,正在把亚洲拱手输给中国

通鉴史智
2026-04-09 09:57:30
美军宣称摸清中国导弹库存!俄专家:中国解放军可以半小时定胜负

美军宣称摸清中国导弹库存!俄专家:中国解放军可以半小时定胜负

共工之锚
2026-04-07 00:20:47
大批航班被取消,五一出行旅客最先遭殃

大批航班被取消,五一出行旅客最先遭殃

环球旅讯
2026-04-09 17:23:24
参观洋山港后,郑丽文一句话,将赖清德一军,蓝营又有一人支持

参观洋山港后,郑丽文一句话,将赖清德一军,蓝营又有一人支持

DS北风
2026-04-09 15:22:19
炸裂!张雪峰被“复活”了

炸裂!张雪峰被“复活”了

品牌头版
2026-04-09 18:03:12
A股:刚刚、证监会,工信部重磅发布,下周大盘4000点应该稳了!

A股:刚刚、证监会,工信部重磅发布,下周大盘4000点应该稳了!

另子维爱读史
2026-04-10 21:28:56
对华签证再放宽,14城居民手握10年签,日本旅游业坐不住了吗?

对华签证再放宽,14城居民手握10年签,日本旅游业坐不住了吗?

东京在线
2026-04-10 16:23:40
2026-04-11 03:23:00
阿雪妹妹的日常
阿雪妹妹的日常
坚持原创!分享我的日常生活
1003文章数 62关注度
往期回顾 全部

科技要闻

马斯克狂发大火箭也养不起AI 年亏50亿美元

头条要闻

特朗普:美军舰已装最先进武器 未来24小时成关键窗口

头条要闻

特朗普:美军舰已装最先进武器 未来24小时成关键窗口

体育要闻

17岁赚了一百万美元,25岁被CBA裁员

娱乐要闻

黄景瑜王玉雯否认恋情!聚会细节被扒

财经要闻

李强主持召开经济形势专家和企业家座谈会

汽车要闻

搭载第二代刀片电池及闪充技术 腾势N8L闪充版预售35万起

态度原创

家居
数码
艺术
亲子
公开课

家居要闻

复古风格 自然简约

数码要闻

联想推出2026款来酷斗战者“战7000”笔记本,7699元起

艺术要闻

深圳顶级海景地段,为啥留下一排“幽灵别墅群”?真相成谜!

亲子要闻

看热闹这玩意随根啊

公开课

李玫瑾:为什么性格比能力更重要?

无障碍浏览 进入关怀版