网易首页 > 网易号 > 正文 申请入驻

ICLR 2024 | 阿里、NUS团队提出全新知识链框架,有效提升大语言模型的事实正确性

0
分享至

大型语言模型(LLMs)逐渐成为自然语言处理(NLP)中的常态,并在生成和推理任务中展现出良好的性能。然而其最致命的缺点之一是生成的内容缺乏事实真实性。

解决该问题的一个常见的方向是检索增强生成(RAG)[1]。这些方法涉及将 LLMs 与检索系统结合起来,旨在利用外部事实知识指导生成过程。然而,现有的方法均有内在的局限性。

我们提出了知识链(CoK)框架,通过从异构知识源动态整合事实信息来增强 LLMs 生成内容的真实性。从而减少幻觉问题的出现。大量实验表明,CoK 在不同领域的知识型任务上一致提高了 LLMs 的表现。

论文标题: Chain-of-Knowledge: Grounding Large Language Models via Dynamic Knowledge Adapting over Heterogeneous Sources 论文链接: https://openreview.net/pdf?id=cPgh4gWZlz 数据代码: https://github.com/DAMO-NLP-SG/chain-of-knowledge

一、问题定义

随着自然语言处理技术的发展,大模型(LLMs)开始大放异彩,在语言理解、生成、交互和推理方面表现出的非凡能力,广泛应用于对话、翻译、代码生成等领域。由于常用的大模型是基于解码器的概率生成模型,其生成过程中不可避免会发生事实性错误内容,因此,关于增强大模型生成内容的正确性已经成为自然语言处理领域中尤为重要的问题之一。

解决该问题的一个常见的方向是检索增强生成(RAG)。这些方法涉及将 LLMs 与检索系统结合起来,旨在利用外部事实知识指导生成过程。

然而,现有的方法均有内在的局限性。首先,它们对所有问题使用固定的知识源,这可能无法检索到专门和特定领域的知识。其次,在生成检索查询时,现有方法主要依赖于 LLMs,这些模型主要在自然语言句子上进行预训练,因此在生成像 SPARQL 这样的结构化查询时可能不够有效。第三,现有的检索增强方法缺乏逐步纠正能力,导致潜在的错误传播。

针对以上问题,我们提出了知识链(CoK)框架,通过从异构知识源动态整合信息来增强 LLMs。这导致了更加事实性的推理和生成中幻觉的减少。具体来说,CoK 包括三个阶段:推理准备、动态知识适配和答案整合。

与之前主要使用非结构化数据的研究不同,CoK 还利用了如 Wikidata 和表格这样的结构化知识源,提供了更可靠的事实信息。为了在动态知识适配阶段访问非结构化和结构化知识源,我们提出了一个自适应查询生成器(AQG),它可以生成各种类型查询语言的查询,包括 SPARQL、SQL 和自然语言句子。

此外,为了最小化推理之间的错误传播,CoK 使用逐步纠正推理。广泛的实验表明,CoK 在不同领域的知识型任务上一致提高了 LLMs 的表现。

二、CoK框架

我们的知识链(CoK)框架包括三个阶段:推理准备、动态知识适应和答案整合。面对一个知识密集型的问题,CoK 首先准备几个初步的推理和答案,同时识别相关知识领域。如果样本中的答案之间没有多数共识,CoK 通过从识别的领域适配知识逐步纠正推理。这些被纠正的推理可以合理地作为最终答案整合的更好基础。

随后,Cok 对初步的第一步推理进行知识抽取和真实性纠正。为了访问结构化和自然语言的知识来源,我们提出了一个自适应查询生成器(AQG),支持 SPARQL、SQL 和自然语言句子等多样的查询。纠正后的推理步骤被用于下一步推理步骤的生成。在逐步纠正推理步骤之后,事实信息被整合以产生最终答案。

与以前的工作相比,CoK 可以使用更多样的知识来源,比如知识图谱和表格,以提供更可靠的信息。我们的逐步纠正也减少了与以前的检索方法相比的错误传播,因为每个推理步骤可能依赖于前面步骤的准确性。

三、实验结果

我们分别在常识、医学、物理和生物领域进行了充分的 3-shot 和 6-shot 实验。实验结果表明,CoK 对比思维链方法有着稳定的表现提升,并将准确率平均提高 4.3%。同时,CoK 对比其他最先进的检索增强方法比如 ReAct [2] 和 VE [3] 也有着稳定的提升。

如表 2 所示,CoK 对比 VE 有稳定提升。对于 FEVER 和 HotpotQA,我们另外在表 3 中将结果与 ReAct 进行了比较。由于 ReAct 中的结果是基于 PaLM 模型报告的,为了增加更合理的视角,我们报告了在 CoT-SC 基线之上的性能提升。

与 ReAct 相比,CoK 对 CoT-SC 的改进更为实质性,特别是在 HotpotQA 上。具体而言,对于 HotpotQA,CoK 相比 ReAct 提高了 2.0%,而 ReAct 只有 0.8%。对于 FEVER,CoK 显示了 3.5% 的改进,与 ReAct 的 4.2% 改进相当。这归因于 FEVER 相对于 HotpotQA 而言的所需的逻辑推理步骤更少,因此从提升逻辑链这一方法中受益较少。

VE 同时针对所有解释进行知识检索和编辑,而 ReAct 则可能会在提示中保留过去的错误,导致错误传播。CoK 通过动态知识适应缓解了这个问题。值得注意的是,CoK 的成本远远低于 ReAct,原文附录中有详细的成本分析。

关于示例数量的影响,如表 2 所示,无论是在 3-shot 还是 6-shot 设置下,CoK 始终在多个数据集上展现出增强的性能。之前的研究表明,在提示中增加示例数量(shots)可能会在推理任务上导致更好的性能。

然而,对于知识密集型任务,这并不普遍适用。例如,如表 2 所示,CoT 在 MMLU 生物学中使用六个示例(81.7%)与使用三个示例(81.5%)几乎相同。这是因为在回答知识密集型问题时,LLM 的瓶颈在于它们的知识不足,而不是它们的推理能力。

所有基于推理的方法在 FEVER 上的性能在使用六个示例后都有所下降。这可能是因为 FEVER 问题是单跳的,需要较少的推理。因此,增加对推理的指导可能会导致潜在的噪音。这一发现与 ReAct 一致,作者在其中指出,对于 FEVER,超过 3 个示例不会导致更好的性能。

四、单知识源 vs. 多知识源

在 CoK 框架中,有一个关键步骤是用来选择每个问题的适当知识领域的。这一步骤对于确保 CoK 能够检索到最相关的知识以纠正解释并准确回答问题至关重要。一个问题可能会选择多个知识领域,并且在每个领域内可能有多个知识来源。

如图 3 所示,我们展示了每个数据集识别出的领域分布情况。值得注意的是,我们发现 CoK 主要为每个数据集选择了一个知识领域,而只有少数情况需要多个领。例如,对于 MedMCQA,主要知识领域是医学,有 17.8% 的问题还将生物学作为相关领域。

此外,我们进行了消融实验来证明利用多个领域的必要性。如表 4 所示,与仅使用医学领域知识相比,CoK 使用来自生物学领域的额外知识进一步提高了 1.3% 的性能。这表明,跨越多个领域的知识对于回答某些问题是必要的,这一结果强调了整合各种知识领域的必要性。

在一个领域内,存在许多可信的知识来源,一个单一来源不可能涵盖该领域的所有知识。因此,在一个领域内利用多个知识来源是重要的。例如,如表 4 所示,与仅使用 Flashcard 相比,当同时利用 Flashcard 和 UpToDate 作为医学知识来源时,CoK 的性能提高了 2.1%。

五、并行 vs. 动态知识适应

如前所述,动态知识适应有助于 CoK 防止错误从前文传播到后文,接下来我们更仔细地看一下它带来了多少改进。如表 5 所示,当应用动态知识适应时,CoK 的性能比 CoT 提高了 4.2%。然而,如果直接采用并行知识适应,由于前文的错误影响到了后文的逻辑推理,最终导致了较差的性能。

六、真实性评估(量化及人为方法)

为了定性地检查 CoK 是否能够输出符合事实的推理链,我们还请志愿者进行了真实性评估。具体来说,我们随机选择了 CoK 在 HotpotQA 和 FEVER 数据集上输出的 100 个回答。其中 50 个 CoK 输出导致了错误答案,另外 50 个导致了正确答案。然后,我们要求志愿者选择其中更符合事实的推理链,以及这个更好的推理链是否可能导致更好的答案输出。

从表 7 的结果中,我们可以观察到,志愿者一致确认 CoK 生成的推理链在事实上是一致的,而 CoT(普通的推理链)则不是。即使在 CoK 生成了答案错误的情况下,人们仍然相信 44% 的时间,CoK 生成的推理链在事实一致性上得到了改善,尽管它可能不包含正确答案所需的信息。

在这些实例中(答案错误,但事实性有提升),人们有 73% 的时间相信这些更符合事实的推理链本应导致更准确的答案。这意味着,即使 CoT 的质量已经得到改善,许多失败案例仍然是由推理错误造成的。

七、结论

在本文中,我们提出了一种新颖的框架——知识链(Chain-of-Knowledge,简称 CoK),旨在提升大型语言模型(LLMs)的事实正确性,让大模型不再胡说八道。

知识链代表了一种充满希望且全面的解决方案,通过整合多个领域内的异构知识来源,极大提升了大模型的知识能力。我们通过提出自适应查询生成器(Adaptive Query Generator,简称 AQG)来解决准确查询生成的挑战,该生成器支持非结构化和结构化查询语言,并且可以轻松地在经过微调的开源大模型和闭源大模型之间进行转换。

在知识密集型任务上的实验结果显示,CoK 取得了显著的改进。此外,CoK 的模块化设计使其可以应用于不同的 LLMs 和各种格式的知识来源,有效地应对了包括隐私问题、知识来源依赖和快速信息更新等重要挑战。

通过知识链,我们能够跨越知识孤岛,连接分散的信息点,构建一个全面、动态更新的知识网络,使得大模型在处理复杂问题时,如同站在巨人的肩膀上,拥有更广阔的视野和更深厚的理解力。我们希望这个工作可以起到抛砖引玉的作用,与各位学术界的前辈和同行携手同行,一起为实现通用人工智能添砖加瓦。

参考文献

[1] Lewis, Patrick, et al. "Retrieval-augmented generation for knowledge-intensive nlp tasks." Advances in Neural Information Processing Systems 33 (2020): 9459-9474.

[2] Yao, Shunyu, et al. "React: Synergizing reasoning and acting in language models." arXiv preprint arXiv:2210.03629 (2022).

[3] Zhao, Ruochen, et al. "Verify-and-edit: A knowledge-enhanced chain-of-thought framework." arXiv preprint arXiv:2305.03268 (2023).

Illustration From IconScout By Delesign Graphics

-The End-

扫码观看!

本周上新!

“AI技术流”原创投稿计划

TechBeat是由将门创投建立的AI学习社区(www.techbeat.net)。社区上线500+期talk视频,3000+篇技术干货文章,方向覆盖CV/NLP/ML/Robotis等;每月定期举办顶会及其他线上交流活动,不定期举办技术人线下聚会交流活动。我们正在努力成为AI人才喜爱的高质量、知识型交流平台,希望为AI人才打造更专业的服务和体验,加速并陪伴其成长。

投稿内容

// 最新技术解读/系统性知识分享 //

// 前沿资讯解说/心得经历讲述 //

投稿须知

稿件需要为原创文章,并标明作者信息。

我们会选择部分在深度技术解析及科研心得方向,对用户启发更大的文章,做原创性内容奖励

投稿方式

发送邮件到

chenhongyuan@thejiangmen.com

或添加工作人员微信(chemn493)投稿,沟通投稿详情;还可以关注“将门创投”公众号,后台回复“投稿”二字,获得投稿说明。

关于我“门”

将门是一家以专注于数智核心科技领域新型创投机构,也是北京市标杆型孵化器。 公司致力于通过连接技术与商业,发掘和培育具有全球影响力的科技创新企业,推动企业创新发展与产业升级。

将门成立于2015年底,创始团队由微软创投在中国的创始团队原班人马构建而成,曾为微软优选和深度孵化了126家创新的技术型创业公司。

如果您是技术领域的初创企业,不仅想获得投资,还希望获得一系列持续性、有价值的投后服务,欢迎发送或者推荐项目给我“门”:

bp@thejiangmen.com

点击右上角,把文章分享到朋友圈

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
社保五险变六险!4月1日起实施

社保五险变六险!4月1日起实施

祥顺财税俱乐部
2026-04-03 09:09:46
直播间标题被指“内涵”张雪机车,凯越机车紧急回应:从未否定雪总曾是凯越的灵魂,其离开前持股近36%

直播间标题被指“内涵”张雪机车,凯越机车紧急回应:从未否定雪总曾是凯越的灵魂,其离开前持股近36%

每日经济新闻
2026-04-02 18:54:18
以色列人痛哭流涕,伊朗的强硬反击,让以色列面临亡国灭种的危机

以色列人痛哭流涕,伊朗的强硬反击,让以色列面临亡国灭种的危机

农夫史记
2026-03-29 21:00:30
2年和领导开房410次!从临时工“睡”成处长,南航女经理升迁之路

2年和领导开房410次!从临时工“睡”成处长,南航女经理升迁之路

就一点
2026-03-28 17:42:50
官宣决定!拒绝退役!全红婵终于正式发声,国家队会召全红婵吗?

官宣决定!拒绝退役!全红婵终于正式发声,国家队会召全红婵吗?

喜欢历史的阿繁
2026-04-03 09:24:14
人老了,搞垮自己最快的方式就是:胡思乱想、过度操心、情绪失控

人老了,搞垮自己最快的方式就是:胡思乱想、过度操心、情绪失控

风起见你
2026-03-16 11:07:25
伊朗伊斯法罕穆巴拉克钢铁厂全面停产

伊朗伊斯法罕穆巴拉克钢铁厂全面停产

国际在线
2026-04-02 21:41:08
美媒:美防长宣布解除禁令,允许美军士兵在军事基地携带个人枪支

美媒:美防长宣布解除禁令,允许美军士兵在军事基地携带个人枪支

环球网资讯
2026-04-03 10:26:20
英超西甲争冠大势!阿森纳不输曼城=夺冠,巴萨2场大战不胜或丢冠

英超西甲争冠大势!阿森纳不输曼城=夺冠,巴萨2场大战不胜或丢冠

体育知多少
2026-04-03 09:56:18
白酒再次被关注医生研究发现:喝得越多,寿命或越短,告诉你真相

白酒再次被关注医生研究发现:喝得越多,寿命或越短,告诉你真相

普陀动物世界
2026-03-31 20:52:21
王传君夫妻疑街头争吵!齐溪皱眉咄咄逼人,膀大腰圆像个保镖

王传君夫妻疑街头争吵!齐溪皱眉咄咄逼人,膀大腰圆像个保镖

童叔不飙车
2026-04-02 20:46:58
西班牙宣布与以色列断绝外交关系。

西班牙宣布与以色列断绝外交关系。

阿七说史
2026-04-01 15:51:46
香烟要被洗白了?中科院颠覆性研究,尼古丁或能降低40%死亡率?

香烟要被洗白了?中科院颠覆性研究,尼古丁或能降低40%死亡率?

温读史
2026-04-02 11:11:30
越南的南北鸿沟:一个国家,两个世界

越南的南北鸿沟:一个国家,两个世界

民间胡扯老哥
2026-04-03 02:26:57
巡回锦标赛:赵心童四连鞭横扫韦克林,旋风狂轰五破百闯进四强!

巡回锦标赛:赵心童四连鞭横扫韦克林,旋风狂轰五破百闯进四强!

世界体坛观察家
2026-04-03 03:48:51
霍尔木兹海峡现“新迹象”:400万桶原油、首艘LNG船“似乎”已通过,且走靠近阿曼海岸的“南线”

霍尔木兹海峡现“新迹象”:400万桶原油、首艘LNG船“似乎”已通过,且走靠近阿曼海岸的“南线”

华尔街见闻官方
2026-04-03 08:45:17
皇马赢麻了?欧超大结局:皇马单挑全欧洲800队

皇马赢麻了?欧超大结局:皇马单挑全欧洲800队

仰卧撑FTUer
2026-04-03 05:40:03
真敢说!39岁张雪:创业13年重庆从没有支持过我 一个子儿都没有

真敢说!39岁张雪:创业13年重庆从没有支持过我 一个子儿都没有

念洲
2026-04-01 09:39:30
没想到,张雪机车夺冠刚3天,胖东来竟因张雪一句话意外火出圈

没想到,张雪机车夺冠刚3天,胖东来竟因张雪一句话意外火出圈

李橑在北漂
2026-04-02 22:53:00
湖人半场落后31分崩盘:东契奇9中2詹皇3中1 亚历山大连137场20+

湖人半场落后31分崩盘:东契奇9中2詹皇3中1 亚历山大连137场20+

醉卧浮生
2026-04-03 10:43:54
2026-04-03 12:27:00
将门创投 incentive-icons
将门创投
加速及投资技术驱动型初创企业
2334文章数 596关注度
往期回顾 全部

科技要闻

SpaceX冲刺2万亿美元估值,马斯克野心太大

头条要闻

牛弹琴:美国干了一件令人发指的事 全世界都无法接受

头条要闻

牛弹琴:美国干了一件令人发指的事 全世界都无法接受

体育要闻

冲击世界杯失败,80岁老帅一气之下病倒了

娱乐要闻

《浪姐7》最新人气TOP 曾沛慈断层第一

财经要闻

专家称长期摄入“飘香剂”存在健康隐患

汽车要闻

你介意和远房亲戚长得很像吗?

态度原创

游戏
房产
时尚
亲子
军事航空

《杀戮尖塔2》更新:删牌贵上天!玩家纷纷吓哭

房产要闻

理科生的浪漫,都藏在细节里!中交·蓝色港湾这场交付太硬核!

为什么“这个颜色”成为今年顶流?这样穿好看又治愈

亲子要闻

熟悉她的人都知道她爱运动,怀孕也没落下

军事要闻

伊朗自杀无人机突进 逼退林肯号航母

无障碍浏览 进入关怀版