网易首页 > 网易号 > 正文 申请入驻

3天把Llama训成Mamba,性能不降,推理更快!

0
分享至

新智元报道

编辑:alan

【新智元导读】近日,Mamba方面又搞出了有意思的研究:来自康奈尔、普林斯顿等机构的研究人员成功将Llama提炼成了Mamba模型,并且设计了新的推测解码算法,加速了模型的推理。

先来看一张其乐融融的图片(一眼AI):

右边的小羊驼代表Llama,而左边的蛇(Mamba)也是我们的老熟人了。

至于到底能不能其乐融融,咱就不管了,之所以有此场景,是因为Mamba方面又搞出了有意思的研究:

——如何把Llama变成Mamba?

论文地址:https://arxiv.org/pdf/2408.15237

代码地址:https://github.com/jxiw/MambaInLlama

近日,来自康奈尔、普林斯顿等机构的研究人员推出了上面这篇工作,将Llama这样的大型Transformer提炼成了Mamba模型,

并且成功在Mamba架构上应用了带有硬件感知的推测解码算法,提高了整个模型的推理速度。

为什么要把Llama变成Mamba?

因为从头开始训练一个大模型太贵了。

Mamba也火了这么长时间了,相关的研究每天都有,但自己训练大尺寸Mamba模型的却很少。

目前比较有名的是AI21的Jamba(进化到了1.5版本,最大398B,MoE),以及NVIDIA的Hybrid Mamba2模型(8B)。

不过世界上有那么多成功的Transformer大模型,而知识就包含在这些模型参数里。

如果能够锁住知识,同时把Transformer微调成Mamba,不就解决问题了?

在本文中,研究人员结合渐进式蒸馏、监督微调(SFT)和定向偏好优化(DPO)等方法达成了这一目标。

光是变大还不够,

在性能匹配Transformer的前提下,速度也要够快才行。

Mamba凭借固定的推理开销,在长序列中的优势明显,但Transformer这边也是有推理加速方案的,比如推测解码。

而由于Mamba本身的结构特性,不能直接应用这种方案,所以作者设计了全新的算法,并结合硬件的性质来实现基于Mamba的推测解码。

最终,研究人员将Zephyr-7B、Llama-3 8B提炼为了线性RNN模型(混合Mamba和Mamba2),且性能与蒸馏之前的标准模型相当。

整个训练过程只使用了20B的token,效果却能够与使用1.2T个token从头开始训练的Mamba 7B模型,以及使用3.5T个token训练的NVIDIA Hybrid Mamba2模型相媲美。

从 Transformer 到 Mamba

在介绍Mamba 2的时候我们讲过,线性RNN(或SSM)跟线性注意力是一回事。

所以可以根据x,B,C与V,K,Q的对应关系直接复用注意力中的投影矩阵。

额外的参数包括SSM需要的A矩阵和Δt(由x投影得到),这就完成了基本的参数初始化。

之后就是SSM的运算过程,再通过投影和累加得到输出。

模型架构和训练

下图给出了模型的架构,因为Transformer的知识存在于MLP层,所以冻结这部分参数。

除了用线性RNN层(Mamba)替换掉注意力头,还有一些组件需要处理,比如跨头共享键和值的分组查询注意力(GQA)。

知识蒸馏(Knowledge distillation,KD)是一种常用的压缩技术,用来训练模仿较大模型(teacher)行为的较小网络(student)。

根据经验,这里采用逐步替换Attention层的策略,先是每2层进行蒸馏,然后每4层继续蒸馏......

监督微调

有两种常见的蒸馏方法。一种方法是使用word-level的KL散度,此时训练student模型去匹配teacher模型输出的完整概率分布。

第二种方法是序列级知识蒸馏(SeqKD),直接使用teacher模型的输出作为ground truth来训练student模型(也称为伪标签)。

这里θ是student模型的可训练参数,α和β分别控制序列和词的loss项的权重。

偏好优化

LLM指令调优的第二阶段是使其符合用户偏好。这个阶段,使用一组期望的偏好对来改进模型的输出。

优化的目标是使奖励模型最大化,同时保持产生的输出接近参考模型。

通常,参考模型使用上一步监督微调后的模型。这里因为是蒸馏,直接可以用teacher模型:

偏好模型的奖励函数定义取决于所使用的方法,本文采用直接偏好优化(DPO),通过直接梯度更新有效地到达优化目标。

DPO表明,对于给定的提示x ,如果我们能够获得preferred和dispreferred两种输出,就可以将这个优化问题重新表述为:

这种优化可以在序列级别上执行,让teacher模型和student模型一起对preferred和dispreferred输出进行评分,然后反向传播给student模型。

推测解码

经过上面的一套小连招,模型转换就搞定了,下面开始想办法应用Transformer那边的推测解码。

推测解码(Speculative Decoding)可以简单理解为下面这张图。

Transformer做推理的时候,除了要处理不断变长的KV cache之外,计算效率也是个问题。

因为显卡的设计是计算高于访存的,具体到计算单元就是做矩阵乘法。

而推理的时候每次只能进入一个词向量,显卡的很多计算就被浪费了。

推测解码给出的解决方案是,使用一个小模型做生成,然后拿显卡多余的计算做验证。

小模型跑得快,可以一口气生成很多输出向量,但是可能效果差一点。这时候用大模型作为验证,一次计算之前生成的很多个向量。

所以小模型串行跑得快,大模型可以并行计算跑得也快,遇到验证不通过的就直接回滚,整体上提高了推理的速度。

Transformer可以方便地回滚,因为KV cache跟时间是一一对应的,但Mamba这边只有一个当前的中间状态ht,你总不能把所有中间状态都存起来吧。

为了解决这个问题,研究人员设计了下面的算法:

简单来说就是每次使用小模型(draft model)生成一组输出,然后大模型(verification model)验证这一组输出,根据验证匹配的位置来更新需要保存的中间状态。

我们可以从下面的伪代码了解详细的过程:

每次生成K个草稿输出,验证模型通过MultiStep函数返回K个真正的输出,以及上一次校验成功位置的cache(中间状态hj)和本次最后位置的cache(hk)。

Multi-Step内核的性能特征

通过FirstConflict函数找到最后匹配(校验成功)的位置,如果所有都匹配,则cache可以更新到最后的hk,否则就只更新到上一次的hj。

兵马后动,粮草先行,不耽误输出和校验,同时只需要多存储一个中间状态。

当然,如果草稿模型也用Mamba的话,算法的推测部分会变得复杂一些,因为草稿模型需要重新计算上一次迭代中验证成功位置的状态。

硬件特定优化

下面使用Mamba 7B和 Mamba 2.8B作为目标模型进行推测实验。

最初,作者搞了一版简单的算法实现,结果在Ampere架构的GPU(3090)上面效果显著,Mamba 2.8B获得了1.5倍的推理加速, 同时有60%的接受率。

但是这种实现方式在H100 GPU上不太好使,主要是因为GEMM操作的速度更快了,使得缓存和重新计算产生的开销更加明显。

所以,作者通过融合内核以及调整实现方式来优化算法。

对于验证模型,首先从缓存中重新计算之前的步骤,然后对新的草稿token序列进行多步解码,最后在单个内核中进行缓存。

对于草稿模型,重新计算、解码和缓存也融合在单个内核中。最终实现了上表中的加速效果。

实验

研究人员使用两个LLM聊天模型进行实验:Zephyr-7B和Llama-3 Instruct 8B。

采用三阶段蒸馏。在第一阶段,使用UltraChat和UltraFeedback作为种子提示,并使用teacher模型生成伪标签。

使用AdamW优化器训练模型,β=(0.9,0.98) ,批量大小64。先使用线性学习率预热,然后进行余弦退火。

第二阶段,在一个epoch中使用SFT在GenQA、InfinityInstruct和OpenHermes 2.5数据集上对模型进行监督微调,采用与Zephyr相同的超参数。

最后一个阶段,对于从Zephyr中提取的模型,在UltraFeedback数据集上使用DPO与标准模型进行蒸馏对齐。

过程中只在第一阶段冻结MLP层,后两个阶段所有参数都进行训练。

作者表示,通常只需要在8卡80G A100上运行3到4天,即可重现本文的结果。

参考资料:

https://arxiv.org/abs/2408.15237

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
2026一季度居民部门新增贷款仅2967亿元,同比暴跌71.5%

2026一季度居民部门新增贷款仅2967亿元,同比暴跌71.5%

知识圈
2026-04-14 20:47:13
这一仗打得真漂亮:曝光俄匈外长通话内容干翻欧尔班!

这一仗打得真漂亮:曝光俄匈外长通话内容干翻欧尔班!

李未熟擒话2
2026-04-14 11:48:13
广东逆转宁波!奎因+徐杰轰53分,崔永熙统治防守,内线却被暴虐

广东逆转宁波!奎因+徐杰轰53分,崔永熙统治防守,内线却被暴虐

篮球资讯达人
2026-04-14 21:39:04
狂轰60胜!战绩东部第一,却被当成软柿子,夺冠热门或许被高估了

狂轰60胜!战绩东部第一,却被当成软柿子,夺冠热门或许被高估了

老梁体育漫谈
2026-04-15 00:03:36
记者:知情人士透露张涵泊改名为李沂泽,家庭变故带来的改名行为

记者:知情人士透露张涵泊改名为李沂泽,家庭变故带来的改名行为

狼叔评论
2026-04-14 21:20:16
广东一女子从窗户抛撒大量港币引争抢!已查明:因亲属病重情绪波动,钱币已归还

广东一女子从窗户抛撒大量港币引争抢!已查明:因亲属病重情绪波动,钱币已归还

都市快报橙柿互动
2026-04-14 23:04:50
中国油轮首次突破美国封锁,直接穿过霍尔木兹

中国油轮首次突破美国封锁,直接穿过霍尔木兹

桂系007
2026-04-14 15:01:07
封锁霍尔木兹,特朗普的“胆小鬼游戏”能玩多久 | 京酿馆

封锁霍尔木兹,特朗普的“胆小鬼游戏”能玩多久 | 京酿馆

新京报评论
2026-04-14 14:59:35
5月1日起反腐新规正式落地!普通人送礼、帮忙、牵线全踩红线

5月1日起反腐新规正式落地!普通人送礼、帮忙、牵线全踩红线

最新声音
2026-04-13 21:34:22
52岁朴树近况:无儿无女,没钱没房,成了要钱不要命的“疯子”

52岁朴树近况:无儿无女,没钱没房,成了要钱不要命的“疯子”

流云随风去远方
2026-04-14 12:22:59
43岁英超名帅官宣离任 率队客胜阿森纳+12轮不败 2大豪门或成下家

43岁英超名帅官宣离任 率队客胜阿森纳+12轮不败 2大豪门或成下家

我爱英超
2026-04-14 21:49:43
从282群的录屏看,就是陈某汐!网友:全红婵说活着就好,我悟了

从282群的录屏看,就是陈某汐!网友:全红婵说活着就好,我悟了

开成运动会
2026-04-14 18:32:59
湖北这件事,已经不是仇富的问题了

湖北这件事,已经不是仇富的问题了

清书先生
2026-04-14 16:01:31
NBA官方:东契奇再度加冕得分王 约基奇荣获篮板&助攻王

NBA官方:东契奇再度加冕得分王 约基奇荣获篮板&助攻王

北青网-北京青年报
2026-04-14 20:04:19
暴跌!价格几乎腰斩!一女子连吃两天,剧烈腹痛胃底被堵死!很多人爱吃

暴跌!价格几乎腰斩!一女子连吃两天,剧烈腹痛胃底被堵死!很多人爱吃

南方都市报
2026-04-13 16:44:33
泰国海岸惊现被斩首“美人鱼”自然死亡后遭人为斩首 警方怀疑或被制成护身符

泰国海岸惊现被斩首“美人鱼”自然死亡后遭人为斩首 警方怀疑或被制成护身符

闪电新闻
2026-04-14 16:31:43
脸没恢复就别出来拍剧了,顶着肿胀脸、笨重假发套,太让人出戏了

脸没恢复就别出来拍剧了,顶着肿胀脸、笨重假发套,太让人出戏了

白面书誏
2026-04-14 18:34:11
他们为“伊朗赢了”庆贺,完全看不见真实的场面

他们为“伊朗赢了”庆贺,完全看不见真实的场面

走读新生
2026-04-14 14:09:38
刚刚,利好来了!直线爆拉,中东大消息!

刚刚,利好来了!直线爆拉,中东大消息!

中国基金报
2026-04-14 15:58:32
郑丽文台湾东吴大学演讲:名人的话听听就好,原创比什么都重要

郑丽文台湾东吴大学演讲:名人的话听听就好,原创比什么都重要

爆角追踪
2026-04-14 14:38:45
2026-04-15 01:04:49
新智元 incentive-icons
新智元
AI产业主平台领航智能+时代
14968文章数 66769关注度
往期回顾 全部

科技要闻

离职同事"炼化"成AI?这届公司不需要活人了

头条要闻

54岁班主任带15岁女孩到宾馆开房猥亵:将她压到床上

头条要闻

54岁班主任带15岁女孩到宾馆开房猥亵:将她压到床上

体育要闻

带出中超最大黑马!他让球迷们“排队道歉”

娱乐要闻

网曝钟丽缇代孕要了个男孩 备孕近10年

财经要闻

许家印认罪,他和恒大还有多少欠债?

汽车要闻

售12.99万起/续航2000km 风云T9L上市

态度原创

健康
教育
亲子
旅游
数码

干细胞抗衰4大误区,90%的人都中招

教育要闻

他们眼里的光被点燃!中华中学首届南大班学习成果汇报

亲子要闻

子宫里多出个“小房间”影响备孕?深圳医生“有招”

旅游要闻

千城百县看中国·赏花季|北京顺义:又见梨花 岁岁年年

数码要闻

三款小平板扎堆发布!红魔、红米、OPPO,谁会是大家的菜?

无障碍浏览 进入关怀版