网易首页 > 网易号 > 正文 申请入驻

记忆层增强的 Transformer 架构:可训练键值存储提升 LLM 性能

0
分享至


大语言模型(LLM)通过其参数储存了大量信息,这些信息主要以密集层中线性矩阵变换的权重形式存在。然而,参数规模的扩大必然导致计算成本和能源消耗的显著增加。

这种参数存储方式是否可以通过更高效的键值查找机制来优化?

尽管此前已有多项相关研究,但在当前 AI 架构规模下的实践尚属首次。

Meta 研究团队通过开发记忆层技术,成功实现了对现有大语言模型的性能提升。该技术通过替换一个或多个 Transformer 层中的前馈网络(FFN)来实现功能。

实验结果表明其效果显著:

实验数据显示,记忆层的引入使大语言模型在事实准确性方面提升了 100% 以上。同时其在代码生成和通用知识领域的表现可与使用 4 倍计算资源训练的传统大语言模型相媲美。

在事实性任务评估中,搭载记忆层的大语言模型的性能明显优于在相似计算资源和参数规模条件下训练的专家混合型(Mixture-of-experts)架构。

本文将深入探讨记忆层的技术原理及其对大语言模型性能的提升机制,这一技术创新对下一代 AI 架构的发展具有重要意义。

记忆层的技术原理

记忆层在功能实现上与 Transformer 的注意力机制有相似之处。基本原理是:给定查询(Q)、键(K)和值(V),通过 softmax 函数计算查询与键之间的相似度,并据此对值(V)进行加权求和。

Transformer 中缩放点积注意力的计算公式

记忆层与传统注意力机制的主要区别在于两个方面:

首先,传统注意力机制中的键和值是针对每个查询动态计算的,而记忆层中的键和值是可训练的固定参数。这意味着这些参数通过训练获得并持久保存。

其次,记忆层所使用的键值对规模达到百万级别

系统仅使用与查询最相似的前 k 个键及其对应值来计算输出,这种方法显著提高了大规模运算时的计算效率。记忆层的数学表达可以通过以下方程系统来描述:

首先,基于查询与键之间的相似度计算确定前 k 个键的索引(I):

其中 q 表示查询向量,K 表示可训练的键矩阵。

随后,计算选定键的相似度得分(K(I)q),并通过 Softmax 函数进行归一化,得到权重向量(s):

其中 q 表示查询向量,K(I) 表示已选择的前 k 个键矩阵。

最后,利用前 k 个值的加权和计算输出向量(y):

其中 s 表示经过 softmax 归一化的权重向量,V(I) 表示选定的前 k 个值矩阵。在记忆层中,每个词元嵌入都进行独立的处理,这一点与传统 Transformer 中的前馈层处理方式相同。

大规模相似键搜索的优化策略

在大规模场景下查找最相似键值的计算开销较大。传统的最近邻搜索算法流程如下:

  • 计算查询向量与所有键之间的相似度(如余弦相似度),时间复杂度为 O(N ⋅ n),其中 N 为键的数量,n 为向量维度
  • 对相似度进行排序,时间复杂度为 O(N log(N))
  • 选取相似度最高的前 k 个键
  • 利用这 k 个键计算最终输出

该方法的空间复杂度为 O(N ⋅ n),在处理百万级键值对时计算资源消耗过大。近似最近邻(ANN)搜索同样不适用于此场景,因为 ANN 需要预先构建静态索引。由于记忆层中的键是可训练参数且在训练过程中持续更新,这就要求不断重建索引。

那么,是否存在更优的解决方案?

研究团队采用了一种源自先前研究的可训练乘积量化键技术,下面将详细说明其实现原理。

键矩阵分解策略

该方法不直接使用完整的键矩阵(K),而是将其分解为两个较小的矩阵(K(1) 和 K(2))。

原始键矩阵的维度为 N × n,分解后的两个子矩阵维度均为 √N × n/2,其中 N 表示键的总数,n 表示向量维度。

完整的键矩阵可以通过这两个子矩阵的笛卡尔积表示:

_K = K(1) X K(2)_

这种设计避免了显式构建完整矩阵,从而实现了计算资源的优化。

查询向量分解

与键矩阵分解相对应,查询向量(Q)也被分解为两个子向量(Q(1) 和 Q(2))。原始查询向量的维度为 n,分解后的子向量维度各为 n/2。这两个子向量分别与对应的键子矩阵进行运算。

相似键的检索与相似度计算

对于 Q(1),系统在 K(1) 中检索前 k 个相似键,得到索引集合(I(1))。随后通过 Softmax 函数计算相似度得分(s(1))。Q(2) 与 K(2) 之间进行相同的操作。

全局最优解的获取

通过对索引和得分应用 Argmax 函数,可以得到全局最优的前 k 个索引和对应得分:

这种方法的优势在于:

将查询与所有 N 个键的直接比较转化为与两个较小集合的比较,使得时间和空间复杂度从 O(N ⋅ n) 降低到 O(√N ⋅ n),大幅提升了计算效率。

GPU 并行计算的实现

记忆层包含数百万个可训练参数(键和值矩阵)。为了高效处理这些参数,系统采用了以下并行计算策略:

  1. 将参数沿嵌入维度分片
  2. 在多个 GPU 上分布式存储
  3. 每个 GPU 负责管理其分配到的参数分片
  4. 通过进程组协调各 GPU 之间的运算

查询操作的执行流程如下:

  1. 识别并分发相关索引至各 GPU
  2. 各 GPU 在其负责的分片中检索对应嵌入
  3. 收集并整合各 GPU 的部分结果,得到最终输出

GPU 并行化的记忆层运算示意图

GPU 计算效率优化

PyTorch 提供的 EmbeddingBag 函数可用于计算记忆层中前 k 个嵌入的加权和。然而,其默认实现在 GPU 内存带宽利用率方面存在局限。

测试显示,默认实现的内存带宽利用率不足 400 GB/s,远未充分发挥现代 GPU 的性能潜力。为此研究团队开发了专门的 CUDA 内核,用于优化前向和反向传播的计算效率。

优化后的实现达到了 3 TB/s 的内存带宽,接近 NVIDIA H100 GPU 3.35 TB/s 的理论峰值,使得嵌入运算的端到端性能提升了约 6 倍。

此外通过引入基于 SiLU 非线性函数的输入依赖门控机制,进一步提升了记忆层的训练性能。

优化后的输出计算公式如下:

其中各参数定义如下:

  • silu(x) = x ∗ σ(x),σ(x) 为 sigmoid 函数
  • ⊙ 表示 Hadamard 积(逐元素乘法)
  • x 为记忆层输入
  • y 为经门控机制调制后的输出
  • W(1) 和 W(2) 为可训练权重矩阵

上图为标准记忆层与引入输入依赖门控机制后的记忆层性能对比

在实践中发现,当小规模基础模型与大规模记忆层结合时,可能出现训练不稳定的问题。为解决这一问题,引入了 QK 归一化技术。该技术在计算点积之前对查询向量(Q)和键向量(K)进行归一化处理。

记忆层的最优配置策略

在深度神经网络中,浅层网络主要学习基础特征,而深层网络则负责提取复杂模式。实验表明,在多个层次中引入记忆层可以获得最佳效果。为了控制参数规模,在所有层间采用了共享内存池机制。这种设计使得多个层可以共享访问同一内存资源,提高了架构效率。

实验数据显示,在不超过 3 个层中使用记忆层可以持续提升模型性能,但过度替换密集前馈网络(FFN)层会导致性能下降。

这一现象表明,稀疏记忆层与密集前馈层各有其独特优势,最佳方案是将两者结合使用。

记忆层增强型大语言模型的性能评估

研究团队选择 Llama 系列模型(Llama2 和 Llama3)作为基准,将其一个或多个前馈层(FFN)替换为共享记忆层进行实验。

实验设置包括两种配置:基础记忆模型(使用单一记忆层)和增强型记忆模型("Memory +",使用三个记忆层并集成Swilu非线性函数)。

SwiLU 非线性函数:其中 β 为可学习参数,σ(x) 为 sigmoid 函数

为进行对比分析,研究还包含了配置相当的专家混合模型(MoE,采用专家选择路由训练)和 PEER 模型。

实验结果分析

在问答(QA)任务评估中,记忆模型展现出显著优势:其性能超过了参数规模相当的密集模型,达到了参数数量两倍的密集模型的水平。

记忆增强型架构与基准模型在问答任务上的性能对比

增强型记忆模型("Memory +")的表现更为突出,其性能可与使用 2-4 倍计算资源训练的密集模型相匹敌。

各架构在问答任务中的准确率比较("Memory +"模型配置:100万记忆嵌入)

值得注意的是,PEER 模型在相同参数规模下的表现与基础记忆模型相当,但未能达到增强型记忆模型的水平。

同时,专家混合模型的性能显著低于记忆增强型模型。在固定基础模型参数的情况下扩展记忆参数规模时,模型在事实性问答任务上表现出显著的性能提升。

实验显示,配置 6400 万个键的 1.3B 参数记忆模型,仅使用 1/10 的计算量和一半的训练数据量,即可达到 Llama2 7B 模型的性能水平。

图表展示了 1.3B 参数模型在 NaturalQuestions(NQ)和 TriviaQA(TQA)基准测试中的性能指标:随着记忆规模扩大,事实性问答准确率提升,负对数似然(NLL)降低。虚线表示使用 10 倍计算资源、在 2 万亿词元上训练的 7B 模型的性能水平。

在 8B 规模模型的评估中,记忆模型在科学知识、通用知识和编程能力等基准测试上的表现明显优于传统密集模型。

特别值得一提的是,经过 1 万亿词元的训练,增强型记忆模型("Memory +")的性能已接近在 15 万亿词元(15 倍数据量)上训练的 Llama3.1 8B 模型。

总结

实验结果表明,记忆层技术在提升大语言模型性能方面具有显著优势。随着大语言模型逐渐接近计算资源和物理极限,这项技术的应用价值将愈发凸显。

论文:https://avoid.overfit.cn/post/bc94fb7278ff425f8af5ffa053a5ab12

作者:Dr. Ashish Bamania

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
多地将器官捐献纳入“见义勇为”评定,专家称概念扩展需审慎

多地将器官捐献纳入“见义勇为”评定,专家称概念扩展需审慎

澎湃新闻
2026-01-24 22:55:05
俄罗斯发动大规模空袭,导弹中途居然还会转向,基辅一半地区停电

俄罗斯发动大规模空袭,导弹中途居然还会转向,基辅一半地区停电

碳基生物关怀组织
2026-01-20 19:48:05
7场造6球!金球巨星降维打击,明演姆巴佩,如今彻底不装了

7场造6球!金球巨星降维打击,明演姆巴佩,如今彻底不装了

阿泰希特
2026-01-24 11:19:09
NBA战报:黄蜂119-115奇才,特雷-约翰逊26分

NBA战报:黄蜂119-115奇才,特雷-约翰逊26分

懂球帝
2026-01-25 03:28:49
屎山代码改不动!曝《时之砂RE》90%由印度团队开发

屎山代码改不动!曝《时之砂RE》90%由印度团队开发

游民星空
2026-01-24 11:11:19
党建评:戳破“双面”伪装,筑牢政治“防火墙”

党建评:戳破“双面”伪装,筑牢政治“防火墙”

金台资讯
2026-01-23 17:58:13
股价从13元跌4块,利润17亿增26亿,花旗银行抄底!

股价从13元跌4块,利润17亿增26亿,花旗银行抄底!

第四思维
2025-03-10 15:24:04
李连杰没撒谎!加入春节、投资7亿、性情大变的吴京,证实他的话

李连杰没撒谎!加入春节、投资7亿、性情大变的吴京,证实他的话

倔强的毛驴
2026-01-23 23:51:32
小学阶段,有这些表现的孩子,就证明不是读书的料了

小学阶段,有这些表现的孩子,就证明不是读书的料了

好爸育儿
2026-01-13 16:17:52
媒体人:万幸的是徐杰只是崴脚 但崴得似乎有点厉害

媒体人:万幸的是徐杰只是崴脚 但崴得似乎有点厉害

狼叔评论
2026-01-25 01:46:10
黄金,涨疯了

黄金,涨疯了

小白读财经
2026-01-24 10:22:41
赵本山担心的事情发生了!何家是个无底洞,第三代人也来要钱了

赵本山担心的事情发生了!何家是个无底洞,第三代人也来要钱了

琴声飞扬
2026-01-23 09:33:04
爆!中国移动集团公司原重要领导,正式到龄退休!

爆!中国移动集团公司原重要领导,正式到龄退休!

通信头条
2026-01-23 21:21:46
安东尼奥:拜合拉木过去两天发烧到38、39度,肯定无法踢满全场

安东尼奥:拜合拉木过去两天发烧到38、39度,肯定无法踢满全场

懂球帝
2026-01-25 02:03:39
1955年,郑位三并无军职,毛主席为何特批:行政三级,享元帅待遇

1955年,郑位三并无军职,毛主席为何特批:行政三级,享元帅待遇

墨说古今
2026-01-21 21:35:27
直到央视公开“点名”朱亚文,才明白,原来李幼斌一个字都没说错

直到央视公开“点名”朱亚文,才明白,原来李幼斌一个字都没说错

寒士之言本尊
2025-12-01 22:07:44
华夏幸福裁员1.78万人

华夏幸福裁员1.78万人

地产微资讯
2026-01-22 21:16:14
陈光标怒撕遮羞布:梁小龙哪里是病死,分明是被折腾死的!

陈光标怒撕遮羞布:梁小龙哪里是病死,分明是被折腾死的!

八斗小先生
2026-01-23 09:56:36
3-2,24曼联旧将绝杀,助西甲第17掀翻西甲第5,豪取3连胜

3-2,24曼联旧将绝杀,助西甲第17掀翻西甲第5,豪取3连胜

侧身凌空斩
2026-01-25 01:13:51
上海炒股冠军肺腑之言:如果接下来迎来牛市,不妨死啃这两根均线

上海炒股冠军肺腑之言:如果接下来迎来牛市,不妨死啃这两根均线

股经纵横谈
2026-01-24 17:15:39
2026-01-25 04:47:00
deephub incentive-icons
deephub
CV NLP和数据挖掘知识
1900文章数 1444关注度
往期回顾 全部

科技要闻

黄仁勋现身上海菜市场

头条要闻

U23国足获亚洲杯亚军 体育总局电贺创历史最佳成绩

头条要闻

U23国足获亚洲杯亚军 体育总局电贺创历史最佳成绩

体育要闻

当家球星打替补,他们在故意摆烂?

娱乐要闻

回归还是顶流 凤凰传奇将现身马年春晚

财经要闻

“百年老字号”张小泉遭60亿债务压顶

汽车要闻

有增程和纯电版可选 日产NX8或于3-4月间上市

态度原创

手机
游戏
旅游
健康
军事航空

手机要闻

追觅首款手机狂揽亿元订单:自研芯片+模块化影像,硬刚华为小米

梦幻西游珍宝阁拿下新出第一化生神衣,毅力帝300万帮贡求超越?

旅游要闻

灯火映冰湖,年味漫京城!什刹海夜滑藏着老北京的新浪漫

耳石脱落为何让人天旋地转+恶心?

军事要闻

俄美乌首次三方会谈在阿联酋举行

无障碍浏览 进入关怀版