网易首页 > 网易号 > 正文 申请入驻

微软BitDistill将LLM压缩到1.58比特:10倍省内存、2.65倍推理加速

0
分享至

来源:市场资讯

(来源:机器之心Pro)


机器之心报道

编辑:+0、陈陈

大语言模型(LLM)不仅在推动通用自然语言处理方面发挥了关键作用,更重要的是,它们已成为支撑多种下游应用如推荐、分类和检索的核心引擎。尽管 LLM 具有广泛的适用性,但在下游任务中高效部署仍面临重大挑战。随着模型规模的急剧扩大,这些挑战被进一步放大,尤其是在资源受限的设备上(如智能手机),内存占用和计算开销都变得极其昂贵。

为应对这些问题,近期研究提出了极低比特(extreme low-bit)LLM,例如使用 1.58 比特(即三值 {-1, 0, 1})表示的 BitNet。这种方法旨在显著降低内存占用并加速推理,从而为 LLM 在下游应用中的高效部署提供一条可行途径。

然而,要让 1.58 比特的 BitNet 在下游任务中达到与高精度模型相媲美的准确率,通常需要从零开始在大规模语料上进行预训练,这会带来巨大的计算和能耗成本。

如图 1 所示,直接对已有的全精度 LLM 进行 1.58 比特量化感知训练(Quantization-Aware Training, QAT)时,在特定下游任务上的训练过程往往不稳定,难以保持原有的性能,并表现出较差的可扩展性:当模型规模从 0.6B 增大到 4B 时,相对于全精度基线的性能差距从 13.9 扩大到 15.3。


这一现象凸显出:迫切需要专门为 1.58 比特 BitNet 设计的更有效的量化感知训练方法。

在本研究中,来自微软的研究者聚焦于将已有的 LLM 微调至 1.58 比特以适配特定下游任务,同时保持与全精度模型相当的性能。为此,本文提出了 BitDistill(BitNet Distillation)—— 一种具备良好可扩展性的量化感知训练(QAT)框架,旨在弥合极端 1.58 比特量化与实际部署之间的性能差距。

在四个基准任务及多种模型规模上的大量实验表明,BitDistill 具有出色的可扩展性,其下游任务性能可与全精度基线持平。同时,如图 1 所示,BitDistill 在 CPU 上实现了 10 倍的内存节省和 2.65 倍的推理加速,显著改善了延迟、吞吐量、内存效率和能耗,使其特别适合部署在资源受限的硬件平台上。


方法介绍:BitDistill

本文针对在资源受限设备上部署 LLM 以执行特定下游任务。重点是高效地将现有的预训练 LLM 压缩为 1.58 比特的 BitNet 模型,同时尽量减少性能损失与训练成本。

BitDistill 框架包含三个关键阶段:

第一阶段:模型精炼阶段。

与全精度模型不同,在标准初始化方案下,全精度模型的隐藏状态方差通常能够保持在一个稳定范围内;而低比特量化模型(如 1.58 比特 LLM)则常常遭受过大的激活方差问题,导致优化过程不稳定并造成收敛性能下降。

为缓解这一问题,借鉴先前 1.58 比特 BitNet 的设计原则,本文在每个 Transformer 模块内的关键位置引入了额外的归一化层(SubLN),以实现稳定的优化过程。

第二阶段:持续预训练阶段。

如图 1 所示,直接将已有的全精度 LLM 转换为 1.58 比特 BitNet 并在下游任务上进行微调,往往会得到次优结果。这是因为有限的训练 token 数量不足以有效地将全精度权重适配到受限的 1.58 比特表示空间中,从而导致可扩展性较差:随着模型规模的增大,其性能与全精度基线之间的差距也随之扩大。

为此,本文提出了一个两阶段训练流程:首先进行持续训练阶段,利用少量预训练语料来实现所需的适配;随后再在下游任务上进行微调。

第三阶段:基于蒸馏的微调。

为更有效地缓解由精度降低带来的性能退化,本文在下游任务微调阶段引入了两种知识蒸馏技术:其中,微调后的全精度 LLM 作为教师模型,而其 1.58 比特量化版本作为学生模型,通过蒸馏过程进行学习与性能对齐。

蒸馏过程主要利用 logits 蒸馏和多头注意力蒸馏来恢复全精度性能。


实验

实验设置

BitDistill 方法的有效性在两个代表性任务上进行评估:文本分类与文本摘要。分类任务采用通用语言理解评估 (GLUE) 基准中的 MNLI、QNLI 与 SST-2 三个数据集,摘要任务使用 CNN/DailyMail (CNNDM) 数据集。所有数据集均用于训练与评估,以全面验证方法性能。

BitDistill 的目标是将预训练的全精度大语言模型 (LLM) 微调为适用于下游任务的 1.58-bit BitNet 模型。比较对象包括:

(1) 在相同任务上直接微调的全精度 FP16 模型 (FP16-SFT);

(2) 将全精度模型量化为 1.58-bit BitNet 后再微调的模型 (BitNet-SFT)。

实验以 Qwen3 系列为基础模型,涵盖 0.6B、1.7B 与 4B 三种规模,并额外测试了 Qwen2.5 与 Gemma 等替代骨干网络以评估模型类型影响。所有方法均采用贪心搜索确定学习率与训练轮数,以兼顾性能与公平比较。最大训练序列长度设为 512,批大小为 32,所有模型均在配备 8 块 AMD Mi300X GPU 的服务器上训练。

Logits 蒸馏温度设为 5.0;分类任务中 λ=10、γ=1e5,摘要任务中 λ=1、γ=1e3,所有实验中 αi=1.0。持续预训练阶段使用 FALCON 语料库中采样的 100 亿个 token,与从头训练 1.58-bit 模型所需的约 4 万亿个 token 相比,成本几乎可忽略。

评估设置

采样参数固定为 top-p=1.0、温度 = 0。分类性能以准确率衡量,摘要性能使用 BLEU、ROUGE-1/2/L/SUM 评估,最大生成长度为 4096 token。运行时效率通过 16 线程 CPU 的 token 吞吐量(tokens/s)报告。

主要结果

BitDistill 在各基准数据集上表现如表 1 与表 2 所示。与全精度基线相比,1.58-bit 模型在准确率和摘要质量上保持接近性能,同时推理速度提升约 2 倍,内存占用减少近 10 倍,展示出在资源受限环境下的显著优势。这表明通过合理蒸馏策略,激进量化仍可实现高性能。


文本分类任务上的结果。所有模型均由 Qwen3 系列 [QY+25] 初始化。每个指标和数据集的最高分均以粗体突出显示。1.58-bit 的 BitDistill 模型实现了与 FP16 基线相当的性能,同时在所有数据集上将推理速度提升了 2 倍,并将内存占用降低了 10 倍。符号 * 表示在 BitDistill 中所使用的 FP16 教师模型。


文本摘要任务(CNNDM 数据集)上的结果。所有模型均由 Qwen3 系列 [QY+25] 初始化。每个指标和数据集的最高分均以粗体突出显示。1.58-bit 的 BitDistill 模型实现了与 FP16 基线相当的性能,同时在所有数据集上将推理速度提升了 2 倍,并将内存占用降低了 10 倍。符号 * 表示在 BitDistill 中所使用的 FP16 教师模型。

将基础模型替换为 Qwen2.5 和 Gemma 后,BitDistill 仍保持稳定性能(见表 4)。虽然不同预训练模型间存在轻微波动,但整体趋势一致,显示该方法具备跨架构通用性和良好的部署适应性。


不同量化技术在文本分类任务上的结果。B、G、A 分别代表块量化、GPTQ 和 AWQ。

消融实验

BitDistill 包含三个阶段。消融实验表明,移除任一阶段均显著降低性能(表 5),说明各阶段相互补充,完整流程对效率与准确率平衡至关重要。


BitDistill 中不同阶段的效果。此处使用 Qwen3 0.6B 作为基础模型。M.D.、C.T. 和 D.T. 分别表示建模优化、持续预训练以及基于蒸馏的微调。

在第三阶段中,单独使用 logits 蒸馏或注意力蒸馏均能提升性能,但联合使用效果最佳(表 6)。两种技术从不同角度缓解量化优化难题,其协同作用在极低比特环境下尤为显著。


蒸馏技术的效果。此处,LD 表示公式 9 中的 logits 蒸馏,AD 表示公式 12 中的多头注意力蒸馏。

BitDistill 与 Block-Quant、GPTQ、AWQ 等多种量化方案兼容。实验显示:(1) 无论底层量化方法为何,BitDistill 均能稳定提升性能;(2) GPTQ、AWQ 等复杂量化策略在其基础上进一步增强效果。这表明 BitDistill 提供了一种普适的低比特模型增强框架。

分析

在阶段一中插入 SubLN 层能稳定 1.58-bit BitNet 的优化并加速收敛。如图 3 (a) 所示,带 SubLN 的模型在 FALCON 语料库上的微调表现优于未使用 SubLN 的版本。


(a) 使用 SubLN 将现有的大语言模型 (LLMs) 微调为 1.58-bit BitNet,可以获得更优的性能和更快的收敛速度。

持续训练可显著缩小大模型的 1.58-bit 与 FP16 性能差距。权重分布可视化(图 2)显示,经过持续训练后,BitNet 权重从近似高斯分布转变为更接近从头训练的分布。该特征促使权重集中于 0 与 ±1 过渡区域,增加梯度更新的敏感度,从而提升模型对下游任务的拟合能力。


模型权重的可视化。上面两行展示了从头开始训练的 BitNet 的量化权重,及其对应的 FP16 分布。下面两行展示的是从 LLM 加载权重并进行持续训练后,BitNet 的量化权重及其对应的 FP16 分布。

在第三阶段,单层注意力蒸馏优于多层蒸馏(图 3 (b))。后期层的蒸馏效果更佳,表明层选择对蒸馏质量至关重要。


(b) 在 Qwen3 0.6B 模型上,通过蒸馏不同层所获得的 MNLI 准确率对比。

使用更大规模的 FP16 教师(如 Qwen3-1.7B、Qwen3-4B)显著提升学生模型性能(图 3 (c)),甚至超越同规模的 FP16 模型,证明高质量教师能为 BitDistill 带来额外收益。

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
1990年,德国为了统一被迫放弃19万平方千米的土地,并写进宪法

1990年,德国为了统一被迫放弃19万平方千米的土地,并写进宪法

博览历史
2025-11-16 18:45:03
妻子怀孕9个月男子申请陪产假,8分钟后被辞退,公司:陪产假是不劳而获,双休日上班是常态,法院:公司违法

妻子怀孕9个月男子申请陪产假,8分钟后被辞退,公司:陪产假是不劳而获,双休日上班是常态,法院:公司违法

极目新闻
2025-11-20 11:58:26
姜萍:疑似从全球数学第12堕落到“黑丝网红”,她到底经历了什么

姜萍:疑似从全球数学第12堕落到“黑丝网红”,她到底经历了什么

一盅情怀
2025-09-18 11:49:52
重庆区划调整后,人事密集调整!原区委书记等职务明确

重庆区划调整后,人事密集调整!原区委书记等职务明确

上观新闻
2025-11-19 19:04:04
汪峰和女儿到菜地干农活,醒醒戴三道杠袖章,读公立学校是个学霸

汪峰和女儿到菜地干农活,醒醒戴三道杠袖章,读公立学校是个学霸

八怪娱
2025-11-18 20:26:30
狂拉!1分钟涨停

狂拉!1分钟涨停

中国基金报
2025-11-20 10:50:56
原来她们是母女,《四喜》演童瑶婆婆,女儿两次合作张嘉译出圈!

原来她们是母女,《四喜》演童瑶婆婆,女儿两次合作张嘉译出圈!

陈意小可爱
2025-11-19 02:35:55
四川一局长任上被查!

四川一局长任上被查!

鲁中晨报
2025-11-20 16:39:36
翻车?中国武术大师出售含剧毒产品!全部下架,专家:可能被判刑

翻车?中国武术大师出售含剧毒产品!全部下架,专家:可能被判刑

念洲
2025-11-20 07:46:01
台海之战,我军可能面临一个大麻烦:打不掉台军的指挥系统

台海之战,我军可能面临一个大麻烦:打不掉台军的指挥系统

混沌录
2025-07-12 18:40:07
钱再多有什么用,46岁姜昆女儿的真实处境,给不少父母提了个醒

钱再多有什么用,46岁姜昆女儿的真实处境,给不少父母提了个醒

聚焦真实瞬间
2025-10-04 18:06:56
太无耻!男子陈某被捕,10天找了5个美女:无非就是想白嫖

太无耻!男子陈某被捕,10天找了5个美女:无非就是想白嫖

潇湘晨报
2025-11-19 09:20:30
泪目!30岁张常宁时隔8年再夺金:女排最美主攻完美谢幕?

泪目!30岁张常宁时隔8年再夺金:女排最美主攻完美谢幕?

李喜林篮球绝杀
2025-11-20 10:19:48
狗咬人案再曝细节:事发厨房一角曝光,姐姐一条信息救了全家

狗咬人案再曝细节:事发厨房一角曝光,姐姐一条信息救了全家

花小猫的美食日常
2025-11-19 05:46:10
排面!40岁C罗与特朗普散步热聊+咧嘴大笑 白宫官方认证:2位GOAT

排面!40岁C罗与特朗普散步热聊+咧嘴大笑 白宫官方认证:2位GOAT

我爱英超
2025-11-19 22:57:34
全运会最新金牌榜:4队破100奖牌,山东50金霸榜,广东重返第二

全运会最新金牌榜:4队破100奖牌,山东50金霸榜,广东重返第二

知轩体育
2025-11-20 11:10:58
渐入佳境!开拓者内线乐透秀的表现确实是越来越好了?

渐入佳境!开拓者内线乐透秀的表现确实是越来越好了?

稻谷与小麦
2025-11-20 16:26:57
韩国四大财阀启动巨额国内投资

韩国四大财阀启动巨额国内投资

参考消息
2025-11-19 16:18:07
张镇麟为何不代表辽篮参加全运会?名记透露原因,与伤病无关

张镇麟为何不代表辽篮参加全运会?名记透露原因,与伤病无关

体育哲人
2025-11-20 16:54:50
林志玲首谈离婚,自曝患抑郁:结婚才3年,简直像换了一个人!

林志玲首谈离婚,自曝患抑郁:结婚才3年,简直像换了一个人!

热闹吃瓜大姐
2025-11-17 19:59:42
2025-11-20 17:19:00
新浪财经 incentive-icons
新浪财经
新浪财经是一家创建于1999年8月的财经平台
1441741文章数 4584关注度
往期回顾 全部

科技要闻

英伟达单季狂揽570亿美元,手握5000亿订单

头条要闻

户外博主发现南太行失联43天男子遗体:先发现黑色鞋子

头条要闻

户外博主发现南太行失联43天男子遗体:先发现黑色鞋子

体育要闻

Faker,何以成为Faker

娱乐要闻

胡彦斌易梦玲恋情曝光,相差16岁

财经要闻

霸王茶姬创始人将与“光伏女神”结婚

汽车要闻

一汽丰田发布IT'S TiME 3.0 三款焕新产品同步亮相

态度原创

房产
亲子
家居
教育
公开课

房产要闻

29.4亿!海南“地王”片区,要卖超级宅地!

亲子要闻

女子花3万请月嫂,女儿每天睡20小时,妈妈掀开包被将月嫂推下12楼

家居要闻

黑白极简 慵懒通透空间

教育要闻

AI都能手搓APP了,少儿编程课还有必要报吗?

公开课

李玫瑾:为什么性格比能力更重要?

无障碍浏览 进入关怀版