网易首页 > 网易号 > 正文 申请入驻

Meta无限长文本大模型来了:参数仅7B,已开源

0
分享至

机器之心报道

编辑:泽南、陈萍

谷歌之后,Meta 也来卷无限长上下文。

Transformers 的二次复杂度和弱长度外推限制了它们扩展到长序列的能力,虽然存在线性注意力和状态空间模型等次二次解决方案,但从以往的经验来看,它们在预训练效率和下游任务准确性方面表现不佳。

长文本是大语言模型一直在努力的方向。近日,谷歌提出的 Infini-Transformer 引入有效方法,可以将基于 Transformer 的大型语言模型 (LLM) 扩展到无限长输入,而不增加内存和计算需求,吸引了人们的关注。

几乎就在同时,Meta 也提出了一种无限长文本技术。



  • 论文地址:https://arxiv.org/pdf/2404.08801.pdf
  • 论文标题:MEGALODON: Efficient LLM Pretraining and Inference with Unlimited Context Length
  • 代码:https://github.com/XuezheMax/megalodon

在 4 月 12 日提交的一篇论文中,来自 Meta、南加州大学、CMU、UCSD 等公司、机构引入了 MEGALODON,一种用于高效序列建模的神经架构,上下文长度不受限制。

MEGALODON 继承了 MEGA(带有门控注意力的指数移动平均)的架构,并进一步引入了多种技术组件来提高其能力和稳定性,包括复数指数移动平均(CEMA)、时间步归一化层、归一化注意力机制和具有两个特征的预归一化(pre-norm)残差配置。



在与 LLAMA2 的直接比较中,MEGALODON 在 70 亿参数和 2 万亿训练 token 的规模上取得了比 Transformer 更好的效率。MEGALODON 的训练损失达到 1.70,处于 LLAMA2-7B (1.75) 和 13B (1.67) 之间。MEGALODON 相对于 Transformers 的改进在不同任务和模式的一系列基准测试中表现强劲。

MEGALODON 本质上是一种改进的 MEGA 架构(Ma et al., 2023),它利用了门控注意力机制和经典指数移动平均(EMA)方法。为了进一步提高 MEGALODON 在大规模长上下文预训练方面的能力和效率,作者提出了多种技术组件。首先,MEGALODON 引入了复数指数移动平均 (CEMA) 组件,将 MEGA 中的多维阻尼 EMA 扩展到复数域。其次,MEGALODON 提出了时间步长归一化层,它将组归一化层推广到自回归序列建模任务,以允许沿顺序维度进行归一化。

为了提高大规模预训练的稳定性,MEGALODON 进一步提出了归一化注意力,以及通过修改广泛采用的预归一化和后归一化方法而具有两跳残差配置的预归一化。通过简单地将输入序列分块为固定块,如 MEGA-chunk 中所做的那样,MEGALODON 在模型训练和推理中实现了线性计算和内存复杂性。

在与 LLAMA2 的直接比较上,控制了数据和计算的同时,MEGALODON-7B 在训练困惑度方面显著优于用于训练 LLAMA2-7B 的最先进的 Transformer 变体。在对长上下文建模的评估上,包括高达 2M 的各种上下文长度中的困惑度以及 Scrolls 中的长上下文 QA 任务证明了 MEGALODON 对无限长度序列进行建模的能力。中小型基准的其他实验结果,包括 LRA、ImageNet、Speech Commands、WikiText-103 和 PG19 证明了 MEGALODON 在体量和多模态上的能力。

方法介绍

首先,文章简单回顾了 MEGA( Moving Average Equipped Gated Attention )架构中的关键组件,并讨论了 MEGA 中存在的问题。

MEGA 将 EMA( exponential moving average ) 组件嵌入到注意力矩阵的计算中,以纳入跨时间步长维度的归纳偏差。具体而言,多维阻尼 EMA 首先通过扩展矩阵 将输入序列 X 的每个维度单独扩展为 h 维,然后将阻尼 EMA 应用于 h 维隐藏空间。形式如下:





为了降低全注意力机制中的二次复杂度,MEGA 简单地将 (14-16) 中的查询、键和值序列拆分为长度为 c 的块。(17) 中的注意力单独应用于每个块,产生线性复杂度 O (kc^2 ) = O (nc)。

从技术上讲,MEGA 中的 EMA 子层有助于捕获每个 token 附近的本地上下文信息,从而缓解了在超出块边界的上下文中丢失信息的问题。尽管 MEGA 取得了令人深刻的印象,但面临如下问题:

i)由于 MEGA 中 EMA 子层的表达能力有限,具有块级注意力的 MEGA 性能仍然落后于全注意力 MEGA。

ii) 对于不同的任务、数据类型,最终的 MEGA 架构可能存在架构差异,例如,不同的归一化层、归一化模式和注意力函数 f (・) 。

iii) 没有经验证据表明 MEGA 可扩展用于大规模预训练。





CEMA:将多维阻尼 EMA 扩展到复数域

为了解决 MEGA 面临的问题,该研究提出了 MEGALODON。

具体而言,他们创造性地提出了复指数移动平均 CEMA( complex exponential moving average ),将上式(1)改写为如下形式:



并将(2)中的 θ_j 参数化为:



时间步(Timestep)归一化

尽管层归一化与 Transformer 相结合的性能令人印象深刻,但很明显,层归一化不能直接减少沿空间维度(也称为时间步长或序列维度)的内部协变量偏移。

在 MEGALODON 中,该研究通过计算累积均值和方差将组归一化扩展到自回归情况。



图 2 说明了层归一化和时间步标准化。



MEGALODON 中的归一化注意力

此外,该研究还提出了专门为 MEGA 定制的归一化注意力机制,以提高其稳定性。形式如下:



则上式 (17) 中的注意力操作改为:



具有 Two-hop 残差的预范数(Pre-Norm)

通过调查发现,扩大模型大小会造成预归一化不稳定问题。基于 Transformer 块的预归一化可以表示为(如图 3 (b) 所示):





在原始 MEGA 架构中, 将 φ (19) 用于门控残差连接 (21) 以缓解此问题。然而,更新门 φ 引入了更多的模型参数,当模型规模扩大到 70 亿时,不稳定问题仍然存在。MEGALODON 引入了一种名为 pre-norm 的新配置,具有 two-hop 残差,它只是简单地重新排列每个块中的残差连接,如图 3(c)所示:





实验

为了评估 MEGALODON 在长上下文序列建模上的可扩展性和效率,本文将 MEGALODON 扩展到 70 亿规模大小。

LLM 预训练

为了提高数据效率,研究者在训练过程中显示了 MEGALODON-7B、LLAMA2-7B 和 LLAMA2-13B 的负对数似然 (NLL),如图 1 所示。

在相同数量的训练 token 下,MEGALODON-7B 获得了比 LLAMA2-7B 明显更好(更低)的 NLL,表现出更好的数据效率。



图 4 说明了分别使用 4K 和 32K 上下文长度的 LLAMA2-7B 和 MEGALODON-7B 在每个设备上的平均 WPS( word/token per second )。对于 LLAMA2 模型,该研究使用 Flash-Attention V2 加速全注意力的计算。在 4K 上下文长度下,由于引入了 CEMA 和时间步归一化,MEGALODON-7B 比 LLAMA2-7B 稍慢(约 6%)。当将上下文长度扩展到 32K 时,MEGALODON-7B 明显比 LLAMA2-7B 快(约 32%),这证明了 MEGALODON 对于长上下文预训练的计算效率。



短上下文评估

表 1 总结了 MEGALODON 和 LLAMA2 在学术基准上的结果,以及其他开源基础模型,包括 MPT、RWKV 、Mamba 、 Mistral 和 Gemma 的比较结果。在相同的 2T token 上进行预训练后,MEGALODON-7B 在所有基准测试中均优于 LLAMA2-7B。在某些任务上,MEGALODON-7B 的性能与 LLAMA2-13B 相当甚至更好。



长上下文评估

图 5 显示了验证数据集在 4K 到 2M 各种上下文长度下的困惑度 (PPL)。可以观察到 PPL 随着上下文长度单调下降,验证了 MEGALODON 在建模极长序列方面的有效性和鲁棒性。



指令微调

表 3 总结了 7B 模型在 MT-Bench 上的性能。与 Vicuna 相比,MEGALODON 在 MT-Bench 上表现出优越的性能,并且与 LLAMA2-Chat 相当,而后者利用 RLHF 进行了进一步的对齐微调。



中等规模基准评估

为了评估 MEGALODON 在图像分类任务上的性能,该研究在 Imagenet-1K 数据集上进行了实验。表 4 报告了验证集上的 Top-1 准确率。MEGALODON 的准确率比 DeiT-B 提高了 1.3%,比 MEGA 提高了 0.8%。



表 5 说明了 MEGALODON 在 PG-19 上的字级困惑度 (PPL),以及与之前最先进的模型,包括 Compressive Transformer 、Perceiver AR、Perceiver AR、块循环 Transformer 和 MEGABYTE 等的对比。MEGALODON 性能明显领先。



更详细内容请参考论文原文。

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
仅一夜! 哈姆正式下课, 湖人完成第一笔签约, 格兰特强势加盟!

仅一夜! 哈姆正式下课, 湖人完成第一笔签约, 格兰特强势加盟!

华强说科技
2024-05-01 12:08:53
闹大了!上海人社局:上海将继续提高退休人员养老金,评论区炸锅

闹大了!上海人社局:上海将继续提高退休人员养老金,评论区炸锅

飞哥AI矩阵
2024-05-01 15:18:08
韩媒:巴斯克斯的灾难表现被掩盖,最差的是他不是金玟哉

韩媒:巴斯克斯的灾难表现被掩盖,最差的是他不是金玟哉

直播吧
2024-05-01 16:52:21
刚刚:澳币狂跌!

刚刚:澳币狂跌!

澳洲红领巾
2024-05-01 13:39:46
突然大跌!“超11万人爆仓”

突然大跌!“超11万人爆仓”

每日经济新闻
2024-05-01 11:58:19
人民币下挫100点!大国央行正在犯下致命错误,亚洲又危险了

人民币下挫100点!大国央行正在犯下致命错误,亚洲又危险了

老道闲聊
2024-05-01 09:25:12
四川横渡西岭雪山五一下雪!游客:一半雪景,一半绿色山野

四川横渡西岭雪山五一下雪!游客:一半雪景,一半绿色山野

澎湃新闻
2024-05-01 15:40:29
广州港原总经理陈宏伟被查!两周前因个人原因辞职

广州港原总经理陈宏伟被查!两周前因个人原因辞职

鲁中晨报
2024-04-30 17:37:02
成都女子出轨遭男友捉奸暴打,求饶视频曝光太辣眼,网友爆笑点评

成都女子出轨遭男友捉奸暴打,求饶视频曝光太辣眼,网友爆笑点评

闻言
2024-04-30 18:46:58
米切尔28+6骑士赢下天王山!3-2领先魔术,班凯罗空砍39+8

米切尔28+6骑士赢下天王山!3-2领先魔术,班凯罗空砍39+8

湖人崛起
2024-05-01 10:38:35
后续!苏州一女子被绑在桥上,痛苦呻吟,知情人:不是一个人干的

后续!苏州一女子被绑在桥上,痛苦呻吟,知情人:不是一个人干的

大有看头
2024-05-01 15:10:02
洁丽雅董事长谈儿子拍短剧出圈:没想到能上热搜一位

洁丽雅董事长谈儿子拍短剧出圈:没想到能上热搜一位

鞭牛士
2024-05-01 08:00:22
455亿!刚刚,他又一次成为中国芯片首富!

455亿!刚刚,他又一次成为中国芯片首富!

李砍柴
2024-04-30 17:23:52
气愤!神舟十八升空,一群小丑竟按捺不住了,纷纷叫嚣:关我啥事

气愤!神舟十八升空,一群小丑竟按捺不住了,纷纷叫嚣:关我啥事

清欢渡语
2024-04-29 21:52:05
县公安局局长儿子调戏新上任女县长,一个月后,全县领导被双开

县公安局局长儿子调戏新上任女县长,一个月后,全县领导被双开

神奇的锤子
2024-04-29 01:56:35
俄乌战场出现变化,6000乌军被追杀9公里,俄军不顾侧翼拼死穿插

俄乌战场出现变化,6000乌军被追杀9公里,俄军不顾侧翼拼死穿插

秦蓁
2024-04-30 11:11:21
场均34分,场均32分!NBA首轮还没打完,这4人的顶薪就已经稳了

场均34分,场均32分!NBA首轮还没打完,这4人的顶薪就已经稳了

篮坛扒客
2024-05-01 18:24:58
“新冠吹哨人”李文亮离世后,他的遗孀付雪洁,如今生活过的好吗

“新冠吹哨人”李文亮离世后,他的遗孀付雪洁,如今生活过的好吗

王姐懒人家常菜
2024-05-01 15:03:33
闹大了!恒大许家印,最新判决结果来了,那些烂尾楼业主该怎么活

闹大了!恒大许家印,最新判决结果来了,那些烂尾楼业主该怎么活

奇葩游戏酱
2024-04-30 18:21:22
克罗斯还未出球,戴尔已经“仙人指路”提醒!奈何金玟哉大漏特漏

克罗斯还未出球,戴尔已经“仙人指路”提醒!奈何金玟哉大漏特漏

直播吧
2024-05-01 08:43:20
2024-05-01 19:06:44
机器之心Pro
机器之心Pro
专业的人工智能媒体
8947文章数 141898关注度
往期回顾 全部

科技要闻

余承东卸任华为终端CEO 新任命为董事长

头条要闻

嫦娥六号任务计划5月3日发射

头条要闻

嫦娥六号任务计划5月3日发射

体育要闻

"意甲最佳"金玟哉 踢回了中超水平...

娱乐要闻

黄子韬被曝求婚徐艺洋 大量亲密照曝光

财经要闻

俞敏洪,踏足A股!

汽车要闻

预售2.89-3.49万 奔腾小马正式开启预售

态度原创

旅游
教育
游戏
本地
军事航空

旅游要闻

假期最受欢迎的小众目的地 会玩的人已经去了

教育要闻

志愿填报内参:首都医科大学2024年高考录取分走势预测

《沙丘:觉醒》游戏截图泄露 角色定制捏脸细节丰富

本地新闻

食味印象 | 潍坊:碳水脑袋的人间乐园

军事要闻

中国海军福建舰出海开展首次航行试验

无障碍浏览 进入关怀版