网易首页 > 网易号 > 正文 申请入驻

大语言模型预训练新前沿:「最佳适配打包」重塑文档处理标准

0
分享至



AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com

在大型语言模型的训练过程中,数据的处理方式至关重要。

传统的方法通常通过将大量文档拼接并切分成等同于模型的上下文长度的训练序列。这虽然提高了训练效率,但也常导致文档的不必要截断,损害数据完整性,导致关键的上下文信息丢失,进而影响模型学习到的内容的逻辑连贯性和事实一致性,并使模型更容易产生幻觉。

AWS AI Labs 的研究人员针对这一常见的拼接-分块文本处理方式进行了深入研究, 发现其严重影响了模型理解上下文连贯性和事实一致性的能力。这不仅影响了模型在下游任务的表现,还增加了产生幻觉的风险。

针对这一问题,他们提出了一种创新的文档处理策略——最佳适配打包 (Best-fit Packing),通过优化文档组合来消除不必要的文本截断,并显著地提升了模型的性能且减少模型幻觉。这一研究已被ICML 2024接收。



文章标题:Fewer Truncations Improve Language Modeling

论文链接:https://arxiv.org/pdf/2404.10830

研究背景

在传统的大型语言模型训练方法中,为了提高效率,研究人员通常会将多个输入文档拼接在一起,然后将这些拼接的文档分割成固定长度的序列。

这种方法虽然简单高效,但它会造成一个重大问题——文档截断(document truncation),损害了数据完整性(data integrity)。文档截断会导致文档包含的信息丢失 (loss of information)。

此外,文档截断减少了每个序列中的上下文量,可能导致下一个词的预测与上文不相关,从而使模型更容易产生幻觉 (hallucination)。

以下的例子展示了文档截断带来的问题:

图2(a):在Python编程中,原始代码虽然正确,但将变量定义与使用分割到不同的训练序列中会引入语法错误,导致某些变量在后续训练序列中未定义,从而使得模型学习到错误的模式,并可能在下游任务中产生幻觉。例如,在程序合成任务中,模型可能会在没有定义的情况下直接使用变量。

图2(b):截断同样损害了信息的完整性。例如,摘要中的“Monday morning”无法与训练序列中的任何上下文匹配,导致内容失实。这种信息不完整性会显著降低模型对上下文信息的敏感度,导致生成的内容与实际情况不符,即所谓的不忠实生成 (unfaithful generation)。

图2(c):截断还会阻碍训练期间的知识获取,因为知识在文本中的表现形式通常依赖完整的句子或段落。例如,模型无法学习到ICML会议的地点,因为会议名称和地点分布在不同的训练序列中。



图2. 文档截断导致幻觉或知识丧失的例子。(a) 变量定义(蓝色部分)被截断,随后的使用调用导致未定义名称(红色部分)。(b) 关键上下文信息被截断(蓝色部分),使得摘要不忠实于原文(红色部分),(c) 由于截断,模型不知道ICML 2024的举办地点。

最佳适配打包

针对这一问题,研究者提出了最佳适配打包 (Best-fit Packing)。

该方法使用长度感知的组合优化技术,有效地将文档打包到训练序列中,从而完全消除不必要的截断。这不仅保持了传统方法的训练效率,而且通过减少数据的片段化,实质性地提高了模型训练的质量。

作者首先先将每个文本分割成一或多个至多长为模型上下文长度L的序列。这一步限制来自于模型,所以是必须进行的。

现在,基于大量的至多长为L的文件块,研究者希望将它们合理地组合,并获得尽量少的训练序列。这个问题可以被看作一个集装优化(Bin Packing)问题。集装优化问题是NP-hard的。如下图算法所示,这里他们采用了最佳适配递减算法(Best-Fit-Decreasing, BFD) 的启发式策略。

接下来从时间复杂度 (Time Complexity) 和紧凑性 (Compactness) 的角度来讨论BFD的可行性。



时间复杂度:

BFD的排序和打包的时间复杂度均为O(N log N),其中N是文档块的数量。在预训练数据处理中,由于文档块的长度是整数并且是有限的 ([1, L]),可以使用计数排序 (count sort) 来实现将排序的时间复杂度降低到O(N)。

在打包阶段,通过使用段树(Segment Tree)的数据结构,使得每次寻找最佳适配容器的操作只需对数时间,即O(log L)。又因为L<



紧凑性 :

紧凑性是衡量打包算法效果的另一个重要指标,在不破坏原文档完整性的同时需要尽可能减少训练序列的数量以提高模型训练的效率。

在实际应用中,通过精确控制序列的填充和排布,最佳适配打包能够生成几乎与传统方法相当数量的训练序列,同时显著减少了因截断而造成的数据损失。



基于在自然语言(RefinedWeb) 和编程语言(The Stack) 数据集上的实验,我们发现最佳适配打包显著降低了文本截断。

值得注意的是,大多数文档包含的token数少于2048个;由于传统拼接-分块时造成的截断主要发生在这一范围内,而最佳适配打包不会截断任何长度低于L的文档,由此有效地保持了绝大多数文档的完整性。



图4:当最大序列长度设置为2k或8k时,在不同文档长度下,每个文档长度对应的文档数量和截断数量。使用“最佳适应打包”(Best-fit Packing)技术后,截断数量明显减少。上方:自然语言。下方:编程语言。

实验与结果

研究人员详细报告了使用最佳适配打包与传统方法(即拼接方法)训练的语言模型在不同任务上的表现对比,包括:自然语言处理和编程语言任务,如阅读理解 (Reading Comprehension)、自然语言推理 (Natural Language Inference)、上下文跟随 (Context Following)、文本摘要 (Summarization)、世界知识 (Commonsense and Closed-book QA) 和程序合成 (Program Synthesis),总计22个子任务。

实验涉及的模型大小从70亿到130亿参数不等,序列长度从2千到8千令牌,数据集涵盖自然语言和编程语言。这些模型被训练在大规模的数据集上,如Falcon RefinedWeb和The Stack,并使用LLaMA架构进行实验。



实验结果表明,使用最佳适配打包在在一系列任务中提升了模型性能,尤其是在阅读理解 (+4.7%)、自然语言推理 (+9.3%)、上下文跟随 (+16.8%) 和程序合成 (+15.0%) 等任务中表现显著(由于不同任务的度量标准的规模各异,作者默认使用相对改进来描述结果。)

经过统计检验,研究者发现所有结果要么统计显著地优于基线(标记为s),要么与基线持平(标记为n),且在所有评测的任务中,使用最佳适配打包均未观察到性能显著下降。

这一一致性和单调性的提升突显了最佳适配打包不仅能提升模型的整体表现,还能保证在不同任务和条件下的稳定性。详细的结果和讨论请参考正文。











作者们重点研究了最佳适配打包对幻觉的影响。

在摘要生成中,使用QAFactEval度量发现采用最佳适配打包的模型在生成幻觉方面有显著降低

更为显著的是,在程序合成任务中,使用最佳适配打包训练的模型生成代码时,“未定义名称”(Undefined Name)的错误减少了高达58.3%,这表明模型对程序结构和逻辑的理解更为完整,从而有效减少了幻觉现象。

作者们还揭示了模型在处理不同类型知识时的表现差异。

如前所述,训练过程中的截断可能影响信息的完整性,从而妨碍知识的获取。但大多数标准评估集中的问题侧重于常见知识 (common knowledge),这类知识在人类语言中频繁出现。因此即使部分知识因截断而丢失,模型仍有很好的机会从文档片段中学习到这些信息。

相比之下,不常见的尾部知识(tail knowledge)更容易受到截断的影响,因为这类信息在训练数据中出现的频率本身就低,模型难以从其他来源补充丢失的知识。

通过对ARC-C和ARC-E两个测试集的结果分析,研究者发现,相较于含有更多常见知识的ARC-E,使用最佳适配打包会使模型在含有更多尾部知识的ARC-C中有更显著的性能提升。

通过计算每对问题-答案组合在 Kandpal et al. (2023) 预处理的Wikipedia实体映射中的共现次数,这一发现得到了进一步验证。统计结果显示,挑战集(ARC-C)包含了更多罕见共现的对,这验证最佳适配打包能有效支持尾部知识学习的假设,也为为何传统的大型语言模型在学习长尾知识时会遇到困难提供了一种解释。



总结

本文提出了大型语言模型训练中普遍存在的文档截断问题。

这种截断效应影响了模型学习到逻辑连贯性和事实一致性,并增加了生成过程中的幻觉现象。作者们提出了最佳适配打包(Best-fit Packing),通过优化数据整理过程,最大限度地保留了每个文档的完整性。这一方法不仅适用于处理数十亿文档的大规模数据集,而且在数据紧凑性方面与传统方法持平。

实验结果显示,该方法在减少不必要的截断方面极为有效,能够显著提升模型在各种文本和代码任务中的表现,同时有效减少封闭域的语言生成幻觉。尽管本文的实验主要集中在预训练阶段,最佳适配打包也可广泛应用于其他如微调阶段。这项工作为开发更高效、更可靠的语言模型做出了贡献,推动了语言模型训练技术的发展。

有关更多研究细节,请参阅原始论文。如果有意向工作或实习,可邮件联系本文作者 zijwan@amazon.com.

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
立即生效!加拿大宣布:申请工签有变!大批多伦多留学生将受影响

立即生效!加拿大宣布:申请工签有变!大批多伦多留学生将受影响

最远方
2024-05-31 19:31:23
专家:房地产市场复苏可以预见,不用等待3~5年,房价要上涨了吗

专家:房地产市场复苏可以预见,不用等待3~5年,房价要上涨了吗

重庆地产视野
2024-06-01 13:46:38
李坤城妹妹透露,28岁林靖恩变得疯癫,患上精神病后四处流浪

李坤城妹妹透露,28岁林靖恩变得疯癫,患上精神病后四处流浪

素素娱乐
2024-05-31 08:40:12
两性科普:车里doi:新手必懂的8个技巧

两性科普:车里doi:新手必懂的8个技巧

坟头长草
2024-06-01 10:19:56
扛不住了?俄消息人士称普京做好了停火准备,愿意按美国条件停火

扛不住了?俄消息人士称普京做好了停火准备,愿意按美国条件停火

环球Talk
2024-05-28 23:26:49
倪萍对话北大附院医生,几乎所有的慢性疾病都是不可治愈的!值得深思

倪萍对话北大附院医生,几乎所有的慢性疾病都是不可治愈的!值得深思

荷兰豆爱健康
2024-05-28 20:28:16
胖东来的陈列太魔幻!活鱼排排站、烧鸡站军姿,员工码货用尺量

胖东来的陈列太魔幻!活鱼排排站、烧鸡站军姿,员工码货用尺量

六毛朵朵
2024-05-25 12:16:19
赵可:我敢打赌,中国90%以上的家庭都拿不出10万块钱!

赵可:我敢打赌,中国90%以上的家庭都拿不出10万块钱!

开心体育站
2024-05-31 19:20:09
一辆车冲过来,他推开刚下车的普京,拔出枪射杀了3名恐怖分子

一辆车冲过来,他推开刚下车的普京,拔出枪射杀了3名恐怖分子

大国观察眼
2024-05-31 08:00:20
治港再下一城,14名死硬乱港分子判了,结果大快人心

治港再下一城,14名死硬乱港分子判了,结果大快人心

说天说地说实事
2024-05-31 13:49:17
雷克萨斯LX570正式复产!标配运动套件,首次采用三液晶屏

雷克萨斯LX570正式复产!标配运动套件,首次采用三液晶屏

音乐时光的娱乐
2024-06-01 09:28:51
郜林中超夏窗后敲定新去向,已得到申花功勋确认,球迷直言没想到

郜林中超夏窗后敲定新去向,已得到申花功勋确认,球迷直言没想到

罗掌柜体育
2024-06-01 13:29:15
抚养费23万交不起补课费?小S替大S发声,网友:养不起让孩子回京

抚养费23万交不起补课费?小S替大S发声,网友:养不起让孩子回京

娱圈小愚
2024-06-01 14:19:37
G7对华统一战线,中国加速囤购能源,马克龙发出警告,有大事发生

G7对华统一战线,中国加速囤购能源,马克龙发出警告,有大事发生

圈里的甜橙子
2024-06-01 10:23:48
孙楠跌落神坛!业内吐槽《歌手》放水,最该淘汰的不是杭盖!

孙楠跌落神坛!业内吐槽《歌手》放水,最该淘汰的不是杭盖!

古希腊掌管月桂的神
2024-06-01 10:52:33
美军忽然承认:解放军“围台军演”是“武统”的预演!

美军忽然承认:解放军“围台军演”是“武统”的预演!

杂谈天下式
2024-05-31 00:05:52
被当代大学生的智慧惊呆了!发掘的“平替”,个个离谱又超绝

被当代大学生的智慧惊呆了!发掘的“平替”,个个离谱又超绝

新住家居
2024-05-31 19:22:30
世界排名:中国女排1-3守住第6,日本爆冷升至第7,荷兰重返前10

世界排名:中国女排1-3守住第6,日本爆冷升至第7,荷兰重返前10

侃球熊弟
2024-05-31 21:31:28
如果圆周率算尽了,会出现什么后果?颠覆人类文明或许只在一瞬间

如果圆周率算尽了,会出现什么后果?颠覆人类文明或许只在一瞬间

文史达观
2024-05-30 06:45:02
实探东莞商品房“以旧换新”:有楼盘称已有多起成功案例

实探东莞商品房“以旧换新”:有楼盘称已有多起成功案例

南方都市报
2024-05-31 20:40:23
2024-06-01 15:08:49
机器之心Pro
机器之心Pro
专业的人工智能媒体
9040文章数 141934关注度
往期回顾 全部

科技要闻

华为上新!余承东:问界6月销量将超4万辆

头条要闻

女子被家暴挂粪袋成功离婚 前夫曾写信:做人留一线

头条要闻

女子被家暴挂粪袋成功离婚 前夫曾写信:做人留一线

体育要闻

"失业"一年了 33岁的德赫亚路在何方

娱乐要闻

白玉兰提名:胡歌、范伟争视帝

财经要闻

实锤!普华永道,危!

汽车要闻

吉利银河E5 Flyme Auto智能座舱首发

态度原创

健康
教育
时尚
本地
手机

晚餐不吃or吃七分饱,哪种更减肥?

教育要闻

孩子背古文记不住怎么办?

“腋下包”过时了?今夏最火的4只包包长这样,好看哭了!

本地新闻

食味印象|歙县限定!枇杷味儿的清甜初夏

手机要闻

荣耀618开门红!折叠屏系列销量暴增269%、荣耀200夺新品销冠

无障碍浏览 进入关怀版