网易首页 > 网易号 > 正文 申请入驻

AAAI 2024 Oral | 小红书搜索团队提出全新框架:验证负样本对大模型蒸馏的价值

0
分享至

大语言模型(LLMs)在各种推理任务上表现优异,但其黑盒属性和庞大参数量阻碍了它在实践中的广泛应用。特别是在处理复杂的数学问题时,LLMs 有时会产生错误的推理链。传统研究方法仅从正样本中迁移知识,而忽略了那些带有错误答案的合成数据。

在 AAAI 2024 上,小红书搜索算法团队提出了一个创新框架,在蒸馏大模型推理能力的过程中充分利用负样本知识。负样本,即那些在推理过程中未能得出正确答案的数据,虽常被视为无用,实则蕴含着宝贵的信息。

论文提出并验证了负样本在大模型蒸馏过程中的价值,构建一个模型专业化框架:除了使用正样本外,还充分利用负样本来提炼 LLM 的知识。该框架包括三个序列化步骤,包括负向协助训练(NAT) 、负向校准增强(NCE) 和动态自洽性(ASC),涵盖从训练到推理的全阶段过程。通过一系列广泛的实验,我们展示了负向数据在 LLM 知识蒸馏中的关键作用。

一、背景

如今,在思维链(CoT)提示的帮助下,大语言模型(LLMs)展现出强大的推理能力。然而,思维链已被证明是千亿级参数模型才具有的涌现能力。这些模型的繁重计算需求和高推理成本,阻碍了它们在资源受限场景中的应用。因此,我们研究的目标是使小模型能够进行复杂的算术推理,以便在实际应用中进行大规模部署。

知识蒸馏提供了一种有效的方法,可以将 LLMs 的特定能力迁移到更小的模型中。这个过程也被称为模型专业化(model specialization),它强制小模型专注于某些能力。先前的研究利用 LLMs 的上下文学习(ICL)来生成数学问题的推理路径,将其作为训练数据,有助于小模型获得复杂推理能力。然而,这些研究只使用了生成的具有正确答案的推理路径(即正样本)作为训练样本,忽略了在错误答案(即负样本)的推理步骤中有价值的知识。

如图所示,表 1 展示了一个有趣的现象:分别在正、负样本数据上训练的模型,在 MATH 测试集上的准确答案重叠非常小。尽管负样本训练的模型准确性较低,但它能够解决一些正样本模型无法正确回答的问题,这证实了负样本中包含着宝贵的知识。此外,负样本中的错误链路能够帮助模型避免犯类似错误。另一个我们应该利用负样本的原因是 OpenAI 基于 token 的定价策略。即使是 GPT-4,在 MATH 数据集上的准确性也低于 50%,这意味着如果仅利用正样本知识,大量的 token 会被浪费。因此,我们提出:相比于直接丢弃负样本,更好的方式是从中提取和利用有价值的知识,以增强小模型的专业化。

模型专业化过程一般可以概括为三个步骤:

1)思维链蒸馏(Chain-of-Thought Distillation),使用 LLMs 生成的推理链训练小模型。

2)自我增强(Self-Enhancement),进行自蒸馏或数据自扩充,以进一步优化模型。

3)自洽性(Self-Consistency)被广泛用作一种有效的解码策略,以提高推理任务中的模型性能。

在这项工作中,我们提出了一种新的模型专业化框架,该框架可以全方位利用负样本,促进从 LLMs 提取复杂推理能力。


  • 我们首先设计了负向协助训练(NAT)方法,其中 dual-LoRA 结构被设计用于从正向、负向两方面获取知识。作为一个辅助模块,负向 LoRA 的知识可以通过校正注意力机制,动态地整合到正向 LoRA 的训练过程中。



  • 对于自我增强,我们设计了负向校准增强(NCE),它将负向输出作为基线,以加强关键正向推理链路的蒸馏。



  • 除了训练阶段,我们还在推理过程中利用负向信息。传统的自洽性方法将相等或基于概率的权重分配给所有候选输出,导致投票出一些不可靠的答案。为了缓解该问题,提出了动态自洽性(ASC方法,在投票前进行排序,其中排序模型在正负样本上进行训练的。


二、方法

我们提出的框架以 LLaMA 为基础模型,主要包含三个部分,如图所示:


  • 步骤 1 :对负向 LoRA 进行训练,通过合并单元帮助学习正样本的推理知识;



  • 步骤 2 :利用负向 LoRA 作为基线来校准自我增强的过程;



  • 步骤 3 :在正样本和负样本上训练排名模型,在推理过程中根据其得分,自适应地对候选推理链路进行加权。




2.1 负向协助训练(NAT)

我们提出了一个两阶段的负向协助训练(NAT)范式,分为负向知识吸收动态集成单元两部分:

2.1.1 负向知识吸收

通过在负数据 上最大化以下期望,负样本的知识被 LoRA 吸收。在这个过程中,LLaMA 的参数保持冻结。

2.1.2 动态集成单元

由于无法预先确定 擅长哪些数学问题,我们设计了如下图所示的动态集成单元,以便在 学习正样本知识的过程中,动态集成来自 的知识:

我们冻结 以防止内部知识被遗忘,并额外引入正 LoRA 模块 。理想情况下,我们应该正向集成正负 LoRA 模块(在每个 LLaMA 层中输出表示为 与 ),以补充正样本中所缺乏但对应 所具有的有益知识。当 包含有害知识时,我们应该对正负 LoRA 模块进行负向集成,以帮助减少正样本中可能的不良行为。

我们提出了一种纠正注意力机制来实现这一目标,如下所示:

我们使用 作为查询来计算 和 的注意力权重。通过在添加校正项 [0.5;-0.5], 的注意力权重被限制在 [-0.5,0.5] 的范围内,从而实现了在正、负两个方向上自适应地集成来自 的知识的效果。最终, 和 LLaMA 层输出的总和形成了动态集成单元的输出。

2.2 负向校准增强(NCE)

为了进一步增强模型的推理能力,我们提出了负校准增强(NCE),它使用负知识来帮助自我增强过程。我们首先使用 NAT 为中的每个问题生成对作为扩充样本,并将它们补充到训练数据集中。对于自蒸馏部分,我们注意到一些样本可能包含更关键的推理步骤,对提升模型的推理能力至关重要。我们的主要目标是确定这些关键的推理步骤,并在自蒸馏过程中加强对它们的学习。

考虑到 NAT 已经包含了 的有用知识,使得 NAT 比 推理能力更强的因素,隐含在两者之间不一致的推理链路中。因此,我们使用 KL 散度来测量这种不一致性,并最大化该公式的期望:

值越大,表示两者之间的差异越大,意味着该样本包含更多关键知识。通过引入 来调整不同样本的损失权重,NCE 将能够选择性地学习并增强 NAT 中嵌入的知识。

2.3 动态自洽性(ASC)

自洽性(SC)对于进一步提高模型在复杂推理中的表现是有效的。然而,当前的方法要么为每个候选者分配相等的权重,要么简单地基于生成概率分配权重。这些策略无法在投票阶段根据 ( , ) 的质量调整候选权重,这可能会使正确候选项不易被选出。为此,我们提出了动态自洽性方法(ASC),它利用正负数据来训练排序模型,可以自适应地重新配权候选推理链路。

2.3.1 排序模型训练

理想情况下,我们希望排序模型为得出正确答案的推理链路分配更高的权重,反之亦然。因此,我们用以下方式构造训练样本:

并使用 MSE loss 去训练排序模型:

2.3.2 加权策略

我们将投票策略修改为以下公式,以实现自适应地重新加权候选推理链路的目标:

下图展示了 ASC 策略的流程:

从知识迁移的角度来看,ASC 实现了对来自 LLMs 的知识(正向和负向)的进一步利用,以帮助小模型获得更好的性能。

三、实验

本研究专注于具有挑战性的数学推理数据集 MATH,该数据集共有 12500 个问题,涉及七个不同的科目。此外,我们还引入了以下四个数据集来评估所提出的框架对分布外(OOD)数据的泛化能力:GSM8K、ASDiv、MultiArith和SVAMP。

对于教师模型,我们使用 Open AI 的 gpt-3.5-turbo 和 gpt-4 API来生成推理链。对于学生模型,我们选择 LLaMA-7b。

在我们的研究中有两种主要类型的基线:一种为大语言模型(LLMs),另一种则基于 LLaMA-7b。对于 LLMs,我们将其与两种流行的模型进行比较:GPT3 和 PaLM。对于 LLaMA-7b,我们首先提供我们的方法与三种设置进行比较:Few-shot、Fine-tune(在原始训练样本上)、CoT KD(思维链蒸馏)。在从负向角度学习方面,还将包括四种基线方法:MIX(直接用正向和负向数据的混合物训练 LLaMA)、CL(对比学习)、NT(负训练)和 UL(非似然损失)。

3.1 NAT 实验结果

所有的方法都使用了贪婪搜索(即温度 = 0),NAT 的实验结果如图所示,表明所提出的 NAT 方法在所有基线上都提高了任务准确性。

从 GPT3 和 PaLM 的低值可以看出,MATH 是一个非常困难的数学数据集,但 NAT 仍然能够在参数极少的情况下表现突出。与在原始数据上进行微调相比,NAT 在两种不同的 CoT 来源下实现了约 75.75% 的提升。与 CoT KD 在正样本上的比较,NAT 也显著提高了准确性,展示了负样本的价值。

对于利用负向信息基线,MIX 的低性能表明直接训练负样本会使模型效果很差。其他方法也大多不如 NAT,这表明在复杂推理任务中仅在负方向上使用负样本是不够的。

3.2 NCE 实验结果

如图所示,与知识蒸馏(KD)相比,NCE 实现了平均 10%(0.66) 的进步,这证明了利用负样本提供的校准信息进行蒸馏的有效性。与 NAT 相比,尽管 NCE 减少了一些参数,但它依然有 6.5% 的进步,实现压缩模型并提高性能的目的。

3.3 ASC 实验结果

为了评估 ASC,我们将其与基础 SC 和 加权(WS)SC 进行比较,使用采样温度 T = 1 生成了 16 个样本。如图所示,结果表明,ASC 从不同样本聚合答案,是一种更有前景的策略。

3.4 泛化性实验结果

除了 MATH 数据集,我们评估了框架在其他数学推理任务上的泛化能力,实验结果如下。

四、结语

本项工作探讨了利用负样本从大语言模型中提炼复杂推理能力,迁移到专业化小模型的有效性。小红书搜索算法团队提出了一个全新的框架,由三个序列化步骤组成,并在模型专业化的整个过程中充分利用负向信息。负向协助训练(NAT)可以从两个角度提供更全面地利用负向信息的方法。负向校准增强(NCE)能够校准自蒸馏过程,使其更有针对性地掌握关键知识。基于两种观点训练的排序模型可以为答案聚合分配更适当的权重,以实现动态自洽性(ASC)。大量实验表明,我们的框架可以通过生成的负样本来提高提炼推理能力的有效性。

Illustration From IconScout By Delesign Graphics

-The End-

扫码观看!

本周上新!

“AI技术流”原创投稿计划

TechBeat是由将门创投建立的AI学习社区(www.techbeat.net)。社区上线500+期talk视频,3000+篇技术干货文章,方向覆盖CV/NLP/ML/Robotis等;每月定期举办顶会及其他线上交流活动,不定期举办技术人线下聚会交流活动。我们正在努力成为AI人才喜爱的高质量、知识型交流平台,希望为AI人才打造更专业的服务和体验,加速并陪伴其成长。

投稿内容

// 最新技术解读/系统性知识分享 //

// 前沿资讯解说/心得经历讲述 //

投稿须知

稿件需要为原创文章,并标明作者信息。

我们会选择部分在深度技术解析及科研心得方向,对用户启发更大的文章,做原创性内容奖励

投稿方式

发送邮件到

chenhongyuan@thejiangmen.com

或添加工作人员微信(chemn493)投稿,沟通投稿详情;还可以关注“将门创投”公众号,后台回复“投稿”二字,获得投稿说明。

关于我“门”

将门是一家以专注于数智核心科技领域新型创投机构,也是北京市标杆型孵化器。 公司致力于通过连接技术与商业,发掘和培育具有全球影响力的科技创新企业,推动企业创新发展与产业升级。

将门成立于2015年底,创始团队由微软创投在中国的创始团队原班人马构建而成,曾为微软优选和深度孵化了126家创新的技术型创业公司。

如果您是技术领域的初创企业,不仅想获得投资,还希望获得一系列持续性、有价值的投后服务,欢迎发送或者推荐项目给我“门”:

bp@thejiangmen.com

点击右上角,把文章分享到朋友圈

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
越来越多的县城,只剩下体制内经济了!

越来越多的县城,只剩下体制内经济了!

黯泉
2026-05-13 11:15:55
别只盯特朗普专机,鲁比奥还是来了,释放比访问更重要的信号

别只盯特朗普专机,鲁比奥还是来了,释放比访问更重要的信号

知法而形
2026-05-13 14:54:30
4分钟干倒十年烧烤店:大连“撸串姐”凭一己之力,让全网破防了

4分钟干倒十年烧烤店:大连“撸串姐”凭一己之力,让全网破防了

奇思妙想草叶君
2026-05-13 18:20:11
新材料之王崛起!利好两大赛道,10家碳纤维龙头,迎长期风口

新材料之王崛起!利好两大赛道,10家碳纤维龙头,迎长期风口

小陆搞笑日常
2026-05-13 18:01:11
4号秀打出状元水准!马刺捡到宝,文班亚马找到未来十年最强搭档

4号秀打出状元水准!马刺捡到宝,文班亚马找到未来十年最强搭档

鸣哥说体育
2026-05-13 16:26:32
今天13至14时,北京全市测到最高气温为37.2℃

今天13至14时,北京全市测到最高气温为37.2℃

新京报
2026-05-13 15:17:07
詹姆斯今年季后赛得到232分,大于历史其他41岁以上球员总和

詹姆斯今年季后赛得到232分,大于历史其他41岁以上球员总和

懂球帝
2026-05-13 14:50:08
中美直接沟通,中间商傻眼了——期待懂王访华之旅

中美直接沟通,中间商傻眼了——期待懂王访华之旅

超级学爸蛋总
2026-05-12 20:55:56
颠覆认知!鱼油 Omega-3 或加速脑功能衰退,降低脑细胞运行效率

颠覆认知!鱼油 Omega-3 或加速脑功能衰退,降低脑细胞运行效率

思思夜话
2026-05-12 13:01:13
网友投稿,这是什么电影?

网友投稿,这是什么电影?

阿废冷眼观察所
2026-05-13 20:05:42
主角:四个女人四种结局,李青娥惨死,米兰嫁富商,花彩香最可惜

主角:四个女人四种结局,李青娥惨死,米兰嫁富商,花彩香最可惜

阿废冷眼观察所
2026-05-13 01:40:05
谢贤果真未曾言谎!母亲节当天,张柏芝的表现验证了他的评价

谢贤果真未曾言谎!母亲节当天,张柏芝的表现验证了他的评价

一盅情怀
2026-05-13 13:58:02
追觅俞浩试驾电动车产品疑似“翻车”,车辆多次无法启动

追觅俞浩试驾电动车产品疑似“翻车”,车辆多次无法启动

金融界
2026-05-13 18:13:10
明星卸妆后,曾黎邋遢憔悴,田曦薇像无眉大侠,黄晓明撞脸大衣哥

明星卸妆后,曾黎邋遢憔悴,田曦薇像无眉大侠,黄晓明撞脸大衣哥

流云随风去远方
2026-05-13 08:12:48
广东连续两年八强游!俱乐部面临生死抉择:天价续约、召回弃将、清洗老将

广东连续两年八强游!俱乐部面临生死抉择:天价续约、召回弃将、清洗老将

冷桂零落
2026-05-13 14:54:30
老板娘问我她大不大?我该怎么回答?

老板娘问我她大不大?我该怎么回答?

太急张三疯
2026-05-13 12:45:09
被禁10年,播出后封神!难以复制的国民史诗

被禁10年,播出后封神!难以复制的国民史诗

电影最TOP
2026-05-13 21:25:54
抗战时一地下党被捕,伪乡长看后踢了对方一脚:共产党会要这蠢货

抗战时一地下党被捕,伪乡长看后踢了对方一脚:共产党会要这蠢货

浩渺青史
2026-05-12 20:43:52
0分还是0分!杜锋对小崔的双标怒吼,让喊话争冠的朱芳雨成了小丑

0分还是0分!杜锋对小崔的双标怒吼,让喊话争冠的朱芳雨成了小丑

后仰大风车
2026-05-13 09:05:14
日本大乱!5 万人冒雨抗议,高市被迫服软,中方:不纠错免谈

日本大乱!5 万人冒雨抗议,高市被迫服软,中方:不纠错免谈

娱乐圈的笔娱君
2026-05-13 15:19:35
2026-05-13 22:08:49
将门创投 incentive-icons
将门创投
加速及投资技术驱动型初创企业
2374文章数 596关注度
往期回顾 全部

科技要闻

腾讯一季度营收1964.6亿元 同比增9%

头条要闻

媒体:黄仁勋绝非"顺路同行" 而是美方刻意纳入的筹码

头条要闻

媒体:黄仁勋绝非"顺路同行" 而是美方刻意纳入的筹码

体育要闻

14年半,74万,何冰娇没选那条更安稳的路

娱乐要闻

白鹿掉20万粉,网友为李晨鸣不平

财经要闻

美国总统特朗普抵达北京

汽车要闻

C级纯电轿跑 吉利银河"TT"申报图来了

态度原创

教育
亲子
家居
健康
军事航空

教育要闻

长检匠心:融智聚力护成长 长沙未检共探协同保护新路径

亲子要闻

见义勇为的小工程车

家居要闻

内在自叙,无域有方

干细胞能让人“返老还童”吗

军事要闻

沙特被指3月曾对伊朗发动多次“报复性”空袭

无障碍浏览 进入关怀版