网易首页 > 网易号 > 正文 申请入驻

符尧大佬一作发文,仅改训练数据,就让LLaMa-2上下文长度扩展20倍!

0
分享至

  大数据文摘受权转载自夕小瑶科技说
作者 | Tscom、Python

  
引言:探索语言模型的长上下文能力

  近日,谷歌推出了Gemini Pro 1.5,将上下文窗口长度扩展到100万个tokens,目前领先世界。而其他语言模型也正在不断探索长上下文能力,也就是模型处理和理解超出其训练时所见上下文长度的能力。例如,一个模型可能在训练时只看到了每个输入中的4K tokens,但在实际应用中,我们希望它能够处理长达128K tokens的文档。这种能力对于多种应用场景至关重要,如多文档问答、代码库级别的代码理解、长历史对话建模,以及语言模型驱动的自主代理等。

  然而,由于注意力机制的二次复杂度,将模型的上下文长度从4K扩展到128K看上去似乎是不切实际的。本文将介绍一种数据工程方法,通过在适当的数据混合上轻量级的持续预训练,来扩展语言模型的上下文长度至128K。

  论文标题:Data Engineering for Scaling Language Models to 128K Context

  长上下文建模的重要性

  1. 128K上下文窗口的新应用场景

  随着语言模型上下文长度的增加至128K tokens,新的应用场景得以实现,这些场景在现有的模型范式中是难以完成的。例如,多文档问题回答、代码库级别的代码理解、长历史对话建模以及由语言模型驱动的自主代理等。这些应用场景的实现,不仅推动了语言模型的发展,也为人工智能领域带来了新的可能性。

  2. 长上下文模型与Needle-in-a-Haystack测试

  Needle-in-a-Haystack测试是一个用来检验模型是否能有效利用长上下文长度的测试平台。该测试要求模型在一个长达128K tokens的文档中,精确地复述一个被随机放置在任意位置的句子(即Needle)。目前,只有封闭源的前沿模型如GPT-4 128K展示了在此测试上的强大性能。而相比于开源领域的模型,我们的方法在Needle-in-a-Haystack测试中表现出色,缩小了与GPT-4 128K的差距。

  

  上图是各模型的Needle-in-a-Haystack性能比较。x 轴表示文档(Haystack)的长度,从1K到128K不等;Y轴表示一个短句(Needle)在文档中的位置。例如,50% 表示Needle位于文档的中间。红色单元格表示语言模型无法确认Needle的信息,绿色单元格表示模型可以。白色虚线表示模型持续预训练(或对指令调整模型进行微调)上下文长度;因此其右侧区域表示长度泛化。大多数现有的开源模型在文档较长时都会出错。我们的训练方案在文档长度达到100K左右时表现出了很强的性能。

  数据工程的关键作用

  从数据角度看,我们的方法与现有工作的主要区别在于,我们认为数据对于扩展上下文长度至关重要。我们的数据混合集在三个方面不同于之前的工作:

  持续预训练数据的长度。 我们使用 80K 的数据,而 Together 使用的是 32K,超过 32K 就无法泛化;

  数据混合集。我们使用的是 SlimPajama,它具有均衡的域,而 YaRN 使用的是仅书籍的 PG19;

  长度上采样。我们对长序列进行了上采样,而 LongLoRA 没有进行上采样。尽管这些细节非常微妙(例如,许多细节在以前的研究中只是作为一行被提及),但我们发现这些细节对大范围检索的性能至关重要。


  实验设置:基础模型与数据集

  1. 使用LLaMA-2作为基础模型

  在本研究中,我们采用了LLaMA-2作为基础模型,具体使用了7B和13B两个版本。LLaMA-2模型是在现有的LLaMA模型基础上进行的改进,我们没有对模型架构进行重大更改,仅对RoPE的基数进行了调整,以适应更长的上下文长度。选择LLaMA-2作为基础模型的原因在于其在处理长上下文任务方面已经展现出了强大的性能,而我们的目标是通过持续预训练,进一步扩展其在128K长上下文中的能力。

  2. SlimPajama数据集的选择与优势

  为了持续预训练,我们选用了SlimPajama数据集。这个数据集是LLaMA预训练数据混合的开源再现版本,包含了来自CommonCrawl、C4、GitHub、Wikipedia、书籍、Arxiv和StackExchange的数据。SlimPajama数据集的优势在于其与LLaMA模型预训练时使用的数据分布非常接近,因此在持续预训练过程中,可以减少分布偏移的问题。此外,SlimPajama数据集的文档长度和来源领域的多样性,为我们提供了丰富的数据,以支持我们的长上下文建模实验。

  持续预训练的策略

  1. 长度上采样的不同方法

  下图是SlimPajama数据集中各种数据混合策略的长度和域分布。在持续预训练过程中,我们考虑了几种不同的长度上采样方法,包括在4K处截断文档、在128K处截断文档、每源长度上采样以及全局长度上采样。这些方法各有利弊,例如在4K处截断文档虽然保留了原始数据混合,但打破了自然存在的长范围依赖;而在128K处截断文档则保留了这些长范围依赖,但仅使用自然存在的长依赖是不够的。全局长度上采样和针对特定源(如Arxiv/Book/Github)的上采样则会同时改变域混合和长度分布。

  

  2. 选择每源长度上采样策略的理由

  我们最终选择了每源长度上采样策略,因为实验表明(下图)这种方法能够在保持原始域混合比例的同时,提高长文档的比例,从而获得最平衡的性能提升。具体来说,我们将每个域中超过4K长度的文档的比例从约30%提高到约70%,这样做可以在不改变域混合比例的情况下,只改变训练文档的长度分布。与其他方法相比,每源长度上采样策略在保持短上下文性能的同时,显著提高了长上下文任务的性能。

  

  下表是我们考虑了将原始数据混合更改为长上下文上采样数据混合后,跨领域的损失有何不同,并报告了与原始数据混合的损失差异(例如,每个源长度的上采样损失减去原始混合的损失)。我们认为损失差异大于0.01是显著的,用红色阴影表示性能下降超过+0.01的损失;或用绿色阴影表示性能改善小于-0.01的损失,或用灰色阴影表示没有显著差异。尽管对书籍/代码/arxiv进行上采样可以提高短上下文和长上下文的域内性能,但这种改进并不适用于所有领域。相反,对一个领域进行上采样,例如代码,甚至可能损害另一个领域,例如书籍。每个源长度的上采样是最平衡的混合,几乎没有任何跨领域的损失显著增加。

  

  实验结果:长上下文性能的提升

  1. 长上下文任务的表现与短上下文性能的维持

  在长上下文任务中,我们的方法不仅提高了精确检索的能力,还保持了短上下文性能。这一点通过MMLU得分得到了证明(如下表),MMLU是一个广泛接受的基准测试,用于测试语言模型在短上下文内的一般能力。我们的方法在长上下文任务(Needle.)上的表现优于顶级开源模型,并且在短上下文性能(MMLU)上在开源模型中保持领先。

  

  下表是我们进一步比较了128K上下文语言模型在一本书长度问题解答基准上的表现。这项任务是在一本书上建立语言模型,然后提出有关情节的问题。我们的方法优于LongLoRA和Yarn Mistral。我们的13B模型性能缩小了与GPT-4 128K的差距,预计未来的扩展和指令调整将进一步提高性能。


  2. 长上下文能力的逐步解锁与数据量的关系

  如下图,我们的实验结果表明,随着训练数据量的增加,模型的检索性能逐渐提高。特别是,当模型在500M到1B的token上进行持续预训练时,模型在其持续预训练的80K上下文内取得了相对良好的性能,但并不泛化到80K-128K的范围。在5B token之后,模型在0-80K上表现良好,并能泛化到未见长度80K-128K。在10B token时,模型似乎对其80K训练范围过拟合,长度泛化开始下降。在这一过程中,我们看到了损失的逐渐减少,这与检索性能的提高相关联。

  

讨论:数据工程对长上下文性能的影响

  1. 长上下文模型性能的关键因素

  在大语言模型研究中,数据工程与建模和算法创新同等重要。我们的研究结果强调了数据工程在长上下文模型性能中的重要性。我们的方法在长上下文任务上的改进归功于我们对数据工程的细致处理,包括持续预训练数据的长度、数据混合集、长度上采样等三个方面。我们也承认,我们的研究之所以成为可能,也得益于最新的机器学习系统研究中的创新,特别是FlashAttention,它将注意力机制的内存使用量从二次方减少到线性。

  2. 长上下文训练的可行性与资源需求

  我们展示了在学术级资源下进行长上下文持续预训练是可行的。我们的配置在8×80G A100上进行训练,耗时5天(下表)。我们的结果表明,对于监督式微调,由于长上下文训练的成本远低于之前认为的,未来的工作可以更深入地探讨100K长度微调和推理的解决方案,目前几乎没有开源工作涉及这一领域。对于预训练研究,目前还没有明确的答案,即长上下文持续预训练是否应该与其他能力(如数学和编码)结合,这通常需要数千亿的token。

  

结论:长上下文预训练的新策略

  1. 长上下文能力的预训练获取

  在对长上下文模型的研究中,我们发现,通过在适当的数据混合上进行轻量级的持续预训练,可以将模型的长上下文能力从4K扩展到128K。这一发现基于假设:即使是在4K上下文长度的预训练中,模型已经大致获得了在任意位置利用信息的能力。我们的实验表明,通过在1-5亿个token的长上下文数据上进行持续预训练,模型能够在128K的上下文中检索信息,而无需从头开始进行大规模预训练。

  我们的数据工程方法强调了数据量和质量的重要性。对于数据量,我们证明了500亿到50亿token足以使模型能够在128K上下文中检索信息。而在数据质量方面,我们的研究结果强调了域平衡和长度上采样的重要性。我们发现,简单地在某些域(如书籍)上进行长数据上采样会导致次优的性能,而保持平衡的域混合则至关重要。

  2. 对未来长上下文指导性微调研究的启示

  我们的研究为未来在长上下文中进行指导性微调提供了新的见解。我们展示了在长上下文数据上进行持续预训练是一种有效且经济的策略,我们的方法在长上下文检索任务上缩小了与前沿模型如GPT-4 128K的差距,并为未来在100K上下文长度上进行指导性微调的研究奠定了基础。

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
60岁女人再过夫妻生活,3位女人说出了真心话

60岁女人再过夫妻生活,3位女人说出了真心话

胥洋洋爱唱歌
2024-04-07 04:14:14
哪吒宣布改名并发起投票,新名字合众却被网友调侃为“乌合之众”

哪吒宣布改名并发起投票,新名字合众却被网友调侃为“乌合之众”

映射生活的身影
2024-04-29 10:16:31
2-1改写2队命运!伊普斯维奇差1分创神迹,将分1亿镑,利兹联难了

2-1改写2队命运!伊普斯维奇差1分创神迹,将分1亿镑,利兹联难了

体育知多少
2024-05-01 06:09:24
1939年,贺子珍在莫斯科的留影,那年她30岁,两眼无神,面容憔悴

1939年,贺子珍在莫斯科的留影,那年她30岁,两眼无神,面容憔悴

小新历史
2024-04-14 17:46:43
一级恶意犯规!1-3逆转要来了?场均46.7分钟,要累吐了啊!

一级恶意犯规!1-3逆转要来了?场均46.7分钟,要累吐了啊!

Haviven聊球
2024-05-01 22:12:46
假期首日,市委书记暗访,发现安全隐患

假期首日,市委书记暗访,发现安全隐患

新京报政事儿
2024-05-01 16:41:32
她是王洪文的女儿,如今事业有成已成亿万富翁,拒绝加入美国国籍

她是王洪文的女儿,如今事业有成已成亿万富翁,拒绝加入美国国籍

历史龙元阁
2024-04-30 23:33:56
5月起,这些新规将影响你我生活

5月起,这些新规将影响你我生活

上海法治声音
2024-05-01 10:05:48
GEN被清算,MSI世界赛全员被拒签,原定的线下活动全部被取消

GEN被清算,MSI世界赛全员被拒签,原定的线下活动全部被取消

新游戏大妹子
2024-05-01 14:24:59
披着谍战外衣,上演一幕幕闹剧,《哈尔滨1944》终成业界笑话

披着谍战外衣,上演一幕幕闹剧,《哈尔滨1944》终成业界笑话

娱乐圈酸柠檬
2024-05-01 20:04:27
马龙回应詹姆斯:没4-0横扫已是给你面子,裁判没保送就是吃亏?

马龙回应詹姆斯:没4-0横扫已是给你面子,裁判没保送就是吃亏?

张敏
2024-05-01 12:08:22
表现灾难!金玟哉赛后未接受采访,只对韩国记者用母语说“抱歉”

表现灾难!金玟哉赛后未接受采访,只对韩国记者用母语说“抱歉”

直播吧
2024-05-01 21:30:26
世锦赛:再爆大冷,四连鞭,世界第2小特出局!四强决出首席

世锦赛:再爆大冷,四连鞭,世界第2小特出局!四强决出首席

求球不落谛
2024-05-01 19:54:43
理想4月交付25,787辆,环比下降12.4%,距离年销80万完成9.2%

理想4月交付25,787辆,环比下降12.4%,距离年销80万完成9.2%

车圈小隆哥
2024-05-01 16:28:40
小女孩凌晨2点烧烤摊被父亲打骂,知情人:9岁没上学,天天干活

小女孩凌晨2点烧烤摊被父亲打骂,知情人:9岁没上学,天天干活

田间农人阿馋
2024-04-30 17:23:40
太罕见!大头亲自带着莎莎在土耳其转机,俩人站一起画面就很美好

太罕见!大头亲自带着莎莎在土耳其转机,俩人站一起画面就很美好

小涛体育
2024-05-01 14:37:43
金卡戴珊狂推的“吸血鬼面膜”,如今导致欧美多人感染艾滋病毒?

金卡戴珊狂推的“吸血鬼面膜”,如今导致欧美多人感染艾滋病毒?

听风听你
2024-05-01 00:18:45
林彪的最后24小时:秘书李文普不愿当叛徒,中途跳车遭林立果枪击

林彪的最后24小时:秘书李文普不愿当叛徒,中途跳车遭林立果枪击

拙言问史
2024-04-25 17:15:21
四大平台即将在5月定档的11部剧,哪一部最有剧王潜质?

四大平台即将在5月定档的11部剧,哪一部最有剧王潜质?

海绵宝宝的心事
2024-04-30 18:43:46
廖均健和潘喜明两张直红被罚下场,本赛季中超首次出现

廖均健和潘喜明两张直红被罚下场,本赛季中超首次出现

懂球帝
2024-04-30 23:51:27
2024-05-01 22:40:49
大数据文摘
大数据文摘
专注大数据,每日有分享!
6209文章数 94255关注度
往期回顾 全部

科技要闻

余承东卸任华为终端CEO 新任命为董事长

头条要闻

媒体:福建舰开始海试 最快正式服役可能要到2026年

头条要闻

媒体:福建舰开始海试 最快正式服役可能要到2026年

体育要闻

詹眉湖人:洛杉矶大型烟花秀

娱乐要闻

黄子韬被曝求婚徐艺洋 大量亲密照曝光

财经要闻

万科突发!王石,放弃了!

汽车要闻

预售2.89-3.49万 奔腾小马正式开启预售

态度原创

本地
旅游
亲子
时尚
军事航空

本地新闻

食味印象 | 潍坊:碳水脑袋的人间乐园

旅游要闻

假期最受欢迎的小众目的地 会玩的人已经去了

亲子要闻

宝宝你是一头小猪

小长假必备!五一出游超适合的单品和搭配!

军事要闻

近距离看中国第三艘航母福建舰解缆起航

无障碍浏览 进入关怀版