网易首页 > 网易号 > 正文 申请入驻

CARE:无需外部工具,让大模型原生检索增强推理实现上下文高保真

0
分享至



近日,来自 MetaGPT、蒙特利尔大学和 Mila 研究所、麦吉尔大学、耶鲁大学等机构的研究团队发布 CARE 框架,一个新颖的原生检索增强推理框架,教会 LLM 将推理过程中的上下文事实与模型自身的检索能力有机结合起来。该框架现已全面开源,包括训练数据集、训练代码、模型 checkpoints 和评估代码,为社区提供一套完整的、可复现工作。



  • 项目主页:https://foundationagents.github.io/CARE
  • 论文地址:https://arxiv.org/abs/2509.13683
  • 开源代码:https://github.com/FoundationAgents/CARE
  • 开源模型 & 数据集:

https://huggingface.co/collections/sheryc/care-datasets-emnlp-2025-68be35242afab58f4bed7d97

https://huggingface.co/collections/sheryc/care-checkpoints-emnlp-2025-68be35dbd732816c9d98f258

研究背景

从“外部搜索”到“原生检索”的转变

1、现有方法的困境

目前解决上下文保真度问题主要有两条路:1. 搭建复杂的 RAG 系统,依赖向量数据库、检索器等一整套基础设施;2. 让模型去调用搜索引擎,但这样反而忽略了用户已经提供的宝贵信息。这两种方法都把检索当作一个独立的外部过程,没有真正融入模型的思考流程。与此同时,目前的LLM有着较强的多任务能力,所以检索器和理解模型在长上下文阅读中或许可以被LLM所统一。

2、CARE:让检索成为推理的一部分

CARE 的突破在于提出了原生检索增强推理这一全新范式。简单来说,就是教会模型在推理过程中利用模型本身的能力自然地引用输入文本中的关键信息。就像学生在答题时会在试卷上划重点一样,模型会在思考过程中插入类似“根据文档第三段提到...”这样的引用,确保每一步推理都有据可依。

这种方法的优势显而易见:不需要额外的检索系统,不增加推理延迟,部署极其简单。对于使用 LLM 的项目来说,只需要替换模型权重就能获得显著的性能提升。

技术实现:两阶段训练策略

CARE 采用了精心设计的两阶段训练流程,确保模型既能学会检索-推理的格式,又能在各种场景下灵活运用。

第一阶段:让模型学会“引用”

研究团队首先基于 HotpotQA 数据集构建了训练数据。通过一个巧妙的数据生成流程,他们将原始的问答数据转换成包含明确引用的推理链。例如,当模型需要回答“约翰的妈妈买的电影票价格合理吗”时,它会先思考“需要从用户输入中抽取约翰的妈妈买票的价格”,再利用自身能力自回归地引用用户输入中出现的原文片段“票价是 15 美元”。之后,它再次思考“需要从用户输入中抽取普通票价”,再自回归地引用“普通场次票价范围是 10-12 美元”,最后得出结论。

这个阶段使用监督学习,让模型熟悉这种“先查找,再推理”的思考模式。关键是使用特殊标记来标识引用内容,让模型清楚地区分哪些是从原文提取的事实,哪些是自己的推理。

第二阶段:强化学习优化检索质量

然而,仅仅学会格式还不够,模型需要知道什么时候该检索,检索什么内容。第二阶段采用强化学习,通过三个精心设计的奖励信号来引导模型:

准确性奖励确保最终答案正确,格式奖励保证输出规范,研究团队在检索奖励上进行了创新:它鼓励模型检索的内容必须真实存在于原文中,不能凭空捏造。这个看似简单的约束,实际上极大地提升了模型的上下文忠实度。

在此基础上,为了让模型能够适应各种不同长度的输入输出,研究团队引入了课程学习策略,让模型从简单的短文本问答逐步过渡到复杂的多跳推理任务。这就像教小孩先学会在一页纸上找答案,再逐步学会在整本书中寻找线索。



评估效果

为了全面验证 CARE 框架的有效性,研究团队在真实世界和反事实(Counterfactual)两大类问答基准上进行了严谨的实验,并与多种主流方法进行了对比。实验结果清晰地表明,CARE 在模型上下文保真度和回答准确性方面取得了全面且显著的提升。

真实世界问答任务:全面超越现有方法

在涵盖了多领域、长文本、多跳推理等复杂场景的四大主流 QA 基准(MFQA, HotpotQA, 2WikiMQA, MuSiQue)上,CARE 表现出了压倒性的优势。

  • 性能显著提升:实验数据显示,以 Llama-3.1-8B 模型为例,搭载了 CARE 框架后的模型平均 F1 分数提升了15.29%。 这一提升在需要综合多个信息点进行推理的复杂多跳任务(如 2WikiMQA 和 MuSiQue)上尤为明显,涨幅分别达到了29.42%18.92%
  • 普适性强:无论是在 Llama 还是 Qwen 等不同架构和尺寸的模型上,CARE 都能带来一致的性能增益,证明了该框架的强大通用性。



反事实问答任务:真正做到“忠于原文”

为了测试模型在面对与自身“知识”相悖的上下文时,是否能坚守原文信息,研究团队在 CofCA 基准上进行了测试。这被认为是检验模型上下文保真度的“试金石”。CofCA基准将测试中使用的长文档由维基百科替换为了真实世界中不存在的信息,利用反事实的上下文,测试模型在用户输入极度OOD时的幻觉表现。

  • 上下文保真度大幅领先:CARE 能够在给定上下文与模型预训练知识冲突时,依然准确依据上下文作答,在 LLaMA-3.1 8B 上实现了13.69%的性能飞跃。
  • 揭示外部搜索的弊端:相比之下,依赖外部搜索引擎的传统方法在这一任务上表现不佳,因为外部信息反而加剧了模型混淆,导致其忽略了眼前的“标准答案”。这凸显了 CARE 原生检索范式的关键优势:优先并忠实于用户提供的即时信息。



事实检索能力评估:答得对,更找得准

CARE 的成功不仅体现在最终答案的准确性上。通过在 HotpotQA 基准上对模型检索出的事实进行直接评估,研究团队发现:

  • 检索质量更高:与其他方法相比,CARE 在定位和提取关键支撑事实方面的能力更强,其检索内容的 BLEU 和 ROUGE-L 分数均达到最高。 这证明了 CARE 真正学会了如何在推理过程中精准地“引用”原文,为最终答案的可靠性提供了坚实的基础。



综合来看,CARE 框架通过其创新的原生检索增强推理机制,不仅在各项评估中取得了 SOTA 级别的性能,更重要的是,它为解决大型语言模型在实际应用中的“幻觉”和“上下文遗忘”问题,提供了一条高效、低成本且易于部署的全新路径。

总结

针对 LLM 在上下文中容易丢失事实信息的固有问题,虽然已有借助 RAG 流程或调用检索引擎进行改进的方式,但使得整体流程更长,耗时更久。CARE则通过一种结合课程学习策略 + RL 的方法来提升 LLM 自身检索能力,让模型更多关注到上下文中的事实信息并进一步回答的更准确。这种使用原生检索增强推理的范式降低了使用者的对接成本,具备更灵活的落地应用性。

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
湖南某医院的17分钟不雅视频,到底是谁拍的?

湖南某医院的17分钟不雅视频,到底是谁拍的?

麦杰逊
2025-11-07 11:38:59
千年血脉曝光!赖清德家族隐藏的惊人秘密!

千年血脉曝光!赖清德家族隐藏的惊人秘密!

鲁源写作读书会
2025-11-07 17:00:08
白百何疑开撕王传君冲热搜!疑因奖项分配不公,发文暗讽沪圈操作

白百何疑开撕王传君冲热搜!疑因奖项分配不公,发文暗讽沪圈操作

古木之草记
2025-11-05 18:13:32
不接受任何采访!朱婷率河南3局横扫天津!她赛后为何悄然离去?

不接受任何采访!朱婷率河南3局横扫天津!她赛后为何悄然离去?

运动帮
2025-11-08 08:40:59
李福贵带货首秀,面对质疑坦言“赚钱才有能力帮更多人”

李福贵带货首秀,面对质疑坦言“赚钱才有能力帮更多人”

大象新闻
2025-11-08 12:14:05
调查发现:冬天吃维生素b12的人,不出2月,身体或会有这3个变化

调查发现:冬天吃维生素b12的人,不出2月,身体或会有这3个变化

素衣读史
2025-11-07 16:57:14
刘晓庆一天吃一斤肉,同龄人夸她年轻,摘下假发真容曝光

刘晓庆一天吃一斤肉,同龄人夸她年轻,摘下假发真容曝光

阿废冷眼观察所
2025-11-08 01:33:04
每体:马尔科姆佣金案已开始审理,多位前巴萨高管接受讯问

每体:马尔科姆佣金案已开始审理,多位前巴萨高管接受讯问

懂球帝
2025-11-08 12:55:10
沙特王子离奇重病赴华求医,中医把脉3分钟,1句话让随行医生傻眼

沙特王子离奇重病赴华求医,中医把脉3分钟,1句话让随行医生傻眼

小哥很OK
2025-10-14 17:59:41
这是我见过的五官最精致的女性,一脸福相,以后会贵不可言

这是我见过的五官最精致的女性,一脸福相,以后会贵不可言

手工制作阿歼
2025-10-28 14:03:28
中国希望看到的一幕将发生,特朗普紧急发文,这一次他真的输不起

中国希望看到的一幕将发生,特朗普紧急发文,这一次他真的输不起

趣史微视频
2025-11-08 12:55:06
杨振宁去世没30天,官媒动态揭开翁帆现状,令人担心的事发生了

杨振宁去世没30天,官媒动态揭开翁帆现状,令人担心的事发生了

法老不说教
2025-11-07 15:15:46
关于香港的现状,这些话不知当讲不当讲!

关于香港的现状,这些话不知当讲不当讲!

科学发掘
2025-11-07 11:55:52
1955年,李迎希听闻自己是中将改授少将,遂向粟裕反映,结果如何

1955年,李迎希听闻自己是中将改授少将,遂向粟裕反映,结果如何

顾史
2025-11-08 12:11:50
时隔2年半再出山!曝45岁郑智将执教西海岸 2位前国脚担任其助手

时隔2年半再出山!曝45岁郑智将执教西海岸 2位前国脚担任其助手

风过乡
2025-11-07 18:15:13
马姆达尼赢得大选,戳中了西方“一人一票”式民主制的死穴

马姆达尼赢得大选,戳中了西方“一人一票”式民主制的死穴

壹家言
2025-11-07 11:19:25
跌下神坛的贵族水果,从百元一斤跌到几块钱,人们反而不愿意买了

跌下神坛的贵族水果,从百元一斤跌到几块钱,人们反而不愿意买了

妙招酷
2025-10-29 00:22:47
第4艘航母下水?四川舰船厂插旗将海试?美媒:性能或远超美航母

第4艘航母下水?四川舰船厂插旗将海试?美媒:性能或远超美航母

胖福的小木屋
2025-11-07 17:09:32
一母亲临终前将脑瘫儿子托付给21岁女儿,女儿含泪点头,谁料母亲去世后,她转身便丢下哥哥离开了家

一母亲临终前将脑瘫儿子托付给21岁女儿,女儿含泪点头,谁料母亲去世后,她转身便丢下哥哥离开了家

上海约饭局
2025-11-08 12:05:38
王伟莹终于坦白,难怪全红婵会退出个人赛,樊振东一个字都没说错

王伟莹终于坦白,难怪全红婵会退出个人赛,樊振东一个字都没说错

削桐作琴
2025-11-06 21:35:11
2025-11-08 13:44:49
机器之心Pro incentive-icons
机器之心Pro
专业的人工智能媒体
11672文章数 142501关注度
往期回顾 全部

科技要闻

美股“AI八巨头”单周市值损失8000亿美元

头条要闻

牛弹琴:中国1天内新部署1艘航母6艘军舰 法媒"醋"了

头条要闻

牛弹琴:中国1天内新部署1艘航母6艘军舰 法媒"醋"了

体育要闻

邵佳一准备好了,但中国足球准备好了吗?

娱乐要闻

梁婷为辛芷蕾发声:没什么可质疑的

财经要闻

小马、文远回港上市 但自动驾驶还没赢家

汽车要闻

特斯拉Model Y后驱长续航版上线:28.85 万元

态度原创

本地
时尚
健康
旅游
公开课

本地新闻

这届干饭人,已经把博物馆吃成了食堂

柔情万种的针织裙,开叉的更显瘦!

超声探头会加重受伤情况吗?

旅游要闻

错过再等一年!巴山大峡谷的百里彩林美成仙境

公开课

李玫瑾:为什么性格比能力更重要?

无障碍浏览 进入关怀版