网易首页 > 网易号 > 正文 申请入驻

参数高效微调新范式!上海交大联合上海AI Lab推参数冗余微调算法

0
分享至


本文作者来自复旦大学、上海交通大学和上海人工智能实验室。一作江书洋为复旦大学和实验室联培的博二学生,目前是实验室见习研究员,师从上海交通大学人工智能学院王钰教授。本文通讯作者为王钰教授与张娅教授。

低秩适配器(LoRA)能够在有监督微调中以约 5% 的可训练参数实现全参数微调 90% 性能。然而,在 LoRA 训练中,可学习参数不仅注入了知识,也学习到了数据集中的幻觉噪声。因为这种特性的存在,大多数的 LoRA 参数都将可学习秩设置为一个较小的值(8 或者 16),通过减小知识学习程度来避免幻觉,而这也限制了 LoRA 的性能上限

图 1 普通的 LoRA 微调随着秩的增大性能无法同步增加,而参数冗余微调能够以冗余参数提升性能。

为了解决这个问题,上海交通大学人工智能学院、复旦大学和上海人工智能实验室的团队提出了参数冗余微调范式以及一种创新性的微调算法:NoRM(Noisy Reduction with Reserved Majority)。参数冗余微调范式下,可以以普通的 LoRA 训练方式进行训练,并使用特定的方法在将 LoRA 参数合并回基模型参数前将冗余部分去除。NoRM 通过 SVD 将 LoRA 参数分解为主成分和冗余成分,并提出了 Sim-Search 方法,以子空间相似度动态决定主成分的数量。评估结果显示,NoRM 在指令微调、数学推理和代码生成的任务上一致性强于 LoRA 和其他参数冗余微调方法,实现无痛涨点。

  • 论文链接:https://openreview.net/pdf?id=ZV7CLf0RHK
  • 开源代码:https://github.com/pixas/NoRM
  • 论文标题:FINE-TUNING WITH RESERVED MAJORITY FOR NOISE REDUCTION

研究动机

研究者首先在 Llama3-8B-Instruct 上进行预备实验,使用 MetaMathQA-395K 数据集对模型进行微调,并在 SVAMP 上进行测试。研究者通过三个方面探究微调过程中的冗余现象:(1)随机删除 10%~90% 的 LoRA 参数通道;(2)使用(1)中的方法,对 Transformer 中的不同层的 LoRA 参数进行随机删除;(3)使用(1)的方法,对 Transformer 中的不同模块的 LoRA 参数进行随机删除。实验结果发现,不仅随机删除 LoRA 参数能够提升下游模型的性能,不同层之间和模块之间删除 LoRA 参数对性能的影响呈现一定的规律。

图 2 随机删除比例(a)的性能变化曲线和模型层索引(b)以及模块(c)上的性能分布。对达成最好性能的保留比例用深蓝色重点展示。

方法概述

在 LoRA 微调中,并不是直接更新参数,而是更新一个低秩表达:。这个表达假设了参数的更新过程中,只在秩以内进行变化。在参数冗余微调中,为了高效减小参数冗余度,并能够根据不同模块和层之间的冗余不同去设计算法,研究者们首先考虑直接使用奇异值分解(SVD)对参数更新部分进行分解:

其中为左右奇异矩阵,是包含了奇异值的对角矩阵。一种朴素的思想是保留最大的个奇异值和响应的奇异向量:

然而,通过这种方法只能得到整体的更新参数,无法得到两个 LoRA 参数分别去除冗余后的分量。为了能够获得一个在预处理和参数存储上都更加高效的算法,研究者转向使用随机 SVD 来分别近似 和。特别地,随机 SVD 以高斯分布初始化一个随机矩阵:

图 3 NoRM 的算法总览。其使用随机奇异值分解来提取 delta 参数的主成分,并使用(b)Sim-Search 基于裁剪后的 delta 权重和预训练权重间的子空间相似度决定拥有最小幻觉成分的 c 个通道。

接着,计算的主要列子空间:来近似特征空间。在此之后,通过对的QR分解得到的正交基的近似。基于此正交基,可以在的低维空间上得到delta权重的投影:

那么在这个小矩阵上执行标准SVD就可以得到:

其中,然后将转化回去来近似奇异向量:。基于上述计算量,可以重构近似处理后的低秩参数:

确定好整个计算流程后,研究者们通过一种Sim-Search的方法来确定要保留的分量。这种方法通过预先设置好的两个搜索超参数,搜索步数和搜索步长,得到一组不同下的低秩分量,以及所对应的delta权重。研究者对每一个delta权重使用SVD计算主要的个奇异矩阵:

并使用同样的公式对基模型的权重进行同样的分解得到。通过提取个和的左奇异向量来计算子空间相似度:

其中

。基于计算好的Grassmann距离,可以选择这一组中拥有最大Grassmann距离的值及对应的delta权重和:

实验结论

NoRM 通过在三种不同的基模型以及三个不同的微调任务上进行实验,展现出强大的性能。

实验 1:指令微调实验

该任务主要测试,对 Instruct 模型进行微调后,如何保证多任务间的泛化性。通过和不同的 PEFT 基线进行比较,NoRM 在所有基模型上相比于最好的 PEFT 方法有着约 5 个点的提升。和之前最强的冗余微调方法 TAIA 相比,也有着 1~3 个点的提升,展现了 NoRM 强大的冗余去除能力。

实验 2:专域微调实验

该任务主要测试通过 NoRM 去除了冗余成分后,是否会对下游知识的学习造成影响。该实验选择 Llama3-8B 作为基模型,在数学推理和代码生成上进行测试。实验结果表明,由于 NoRM 可以使用更大的秩进行微调,在下游知识的吸收上,也优于之前的 PEFT 方法约 4 个点,领先 TAIA 约 3 个点。

实验 3:可学习参数对 NoRM 的影响

NoRM 通过对可微调参数中的冗余部分进行自适应去除降低微调幻觉。本实验中,通过改变秩的大小,NoRM 的性能随着可微调参数的增加而增加,而 LoRA 的性能并没有这样的趋势,这也映证了微调参数中存在大量冗余,这也是 LoRA 无法使用大秩提升性能的原因之一。

图 4 NoRM 可以从大秩中受益,但基础的 LoRA 在秩增大后反而降低性能。

实验 4:NoRM 的学忘比

通过对 LoRA 和 NoRM 在记住预训练知识的能力上进行比较,可以证实 NoRM 的设计哲学在于尽可能保留下游语料中和预训练参数中重叠最大的部分。通过测试在 WikiText-103 测试集上的损失函数值,可以看到 NoRM 的损失降低,而 LoRA 相比于基模型都有着一定程度上的升高。

结论和展望

这篇工作发现了有趣的高效参数冗余现象,并提出了 NoRM 算法来智能识别并保留最有价值的参数,同时去除有着负面作用的冗余参数,给微调参数做了一次 “减重手术”。在目前强化学习微调盛行的当下,可以将 NoRM 的设计哲学迁移到强化学习中,通过去除数据中会带来噪声的成分,提升模型下游任务的适配性和多任务之间的泛化性。

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
老部下梁兴初拍桌救人:谁敢动我首长!两位开国将军的特殊交情

老部下梁兴初拍桌救人:谁敢动我首长!两位开国将军的特殊交情

云霄纪史观
2025-12-29 01:52:21
父母都是央视名人,被保送到英国名校,如今定居英国,生活很自在

父母都是央视名人,被保送到英国名校,如今定居英国,生活很自在

跳跳历史
2025-12-26 14:10:10
2012年,广东老板参加宴请后失踪,13年后托梦妻子:车库里找我

2012年,广东老板参加宴请后失踪,13年后托梦妻子:车库里找我

农村情感故事
2025-12-06 07:32:53
正负值-59!湖人三连败揭詹姆斯副作用,雷迪克就差报身份证号了

正负值-59!湖人三连败揭詹姆斯副作用,雷迪克就差报身份证号了

奕辰说球
2025-12-29 10:27:15
人口告别世界第一?二孩催生无效后,国家终于向住房出手了

人口告别世界第一?二孩催生无效后,国家终于向住房出手了

春秋论娱
2025-12-25 07:11:24
官方:为增大举办可能性,韩国足协将同时申办2031及2035亚洲杯

官方:为增大举办可能性,韩国足协将同时申办2031及2035亚洲杯

懂球帝
2025-12-29 11:54:46
莱昂纳德55分创生涯新高!快船4连胜掀翻东部老大 哈登28+4+7

莱昂纳德55分创生涯新高!快船4连胜掀翻东部老大 哈登28+4+7

罗说NBA
2025-12-29 12:37:15
女性偷腥后当晚与丈夫同房是什么感觉?一位39岁的女人说出实情

女性偷腥后当晚与丈夫同房是什么感觉?一位39岁的女人说出实情

混音情感
2025-12-14 19:13:19
柬埔寨国王,72岁了,没钱没权,没结婚没孩子,和老母亲相依为命

柬埔寨国王,72岁了,没钱没权,没结婚没孩子,和老母亲相依为命

科普100克克
2025-12-23 17:54:08
王姓男演员道歉:今后一定严格约束自己的行为、

王姓男演员道歉:今后一定严格约束自己的行为、

小张帅
2025-12-27 15:24:25
威少只差9分,达成历史第十六人!勇士有意浓眉,欲用巴特勒交易

威少只差9分,达成历史第十六人!勇士有意浓眉,欲用巴特勒交易

篮球看比赛
2025-12-29 11:47:46
直线拉升,涨停潮来了!

直线拉升,涨停潮来了!

中国基金报
2025-12-29 12:27:35
郑永年:建议改革人才评估标准,“希望以后有一半院士来自企业”

郑永年:建议改革人才评估标准,“希望以后有一半院士来自企业”

时代周报
2025-12-28 15:35:10
美媒一定程度上承认了“斩杀线”存在

美媒一定程度上承认了“斩杀线”存在

环球时报国际
2025-12-28 15:40:48
小心谨慎,火箭锋线被联盟大买家盯上,一筹码或让火箭为之心动

小心谨慎,火箭锋线被联盟大买家盯上,一筹码或让火箭为之心动

拾叁懂球
2025-12-29 03:51:03
大胆预言,打工潮将在2026年结束!

大胆预言,打工潮将在2026年结束!

冬天来旅游
2025-12-29 11:01:20
美国衰落,始于奥巴马当选总统

美国衰落,始于奥巴马当选总统

狐狸先森讲升学规划
2025-12-12 21:13:15
从“联合利剑”到“海峡雷霆”到“正义使命” 三次演习有一个共同点

从“联合利剑”到“海峡雷霆”到“正义使命” 三次演习有一个共同点

环球网资讯
2025-12-29 08:26:47
成都警方通报:男子因纠纷引燃易燃物,其本人当场死亡,现场4人受伤

成都警方通报:男子因纠纷引燃易燃物,其本人当场死亡,现场4人受伤

界面新闻
2025-12-28 18:27:56
中方制裁清单送到白宫,美国头一次如此暴躁,给中国提出两个要求

中方制裁清单送到白宫,美国头一次如此暴躁,给中国提出两个要求

刘拕说体坛
2025-12-28 16:51:29
2025-12-29 13:39:00
机器之心Pro incentive-icons
机器之心Pro
专业的人工智能媒体
12009文章数 142523关注度
往期回顾 全部

科技要闻

肉搏非洲,传音不想只当个卖手机的

头条要闻

解放军举行围台军演 郑丽文:赖清德把自己的路走绝了

头条要闻

解放军举行围台军演 郑丽文:赖清德把自己的路走绝了

体育要闻

“史上最贵”的世界杯,球迷成了韭菜

娱乐要闻

谭松韵扛剧能力被质疑 赵丽颖成女主?

财经要闻

贵金属“牛市”能否跨年

汽车要闻

一汽正式“入股”零跑,总金额超37亿元!

态度原创

健康
旅游
教育
房产
军事航空

这些新疗法,让化疗不再那么痛苦

旅游要闻

鄂尔多斯冰雪季启幕 点燃冬日暖城激情

教育要闻

长期成绩差的孩子,大多不是厌学,不是抑郁,而是:无感

房产要闻

中粮(三亚)国贸中心ITC第四期自贸港政策沙龙圆满举行

军事要闻

东部战区发布联合演训区公告及示意图

无障碍浏览 进入关怀版