网易首页 > 网易号 > 正文 申请入驻

南京大学揭秘AI"多技能合并"的底层密码

0
分享至


这项由南京大学、卧龙岗大学和南洋理工大学联合开展的研究,发表于2026年4月,论文编号为arXiv:2604.17078,有兴趣深入了解的读者可以通过该编号查询完整论文。

假设你雇了八位专家——一位识别交通标志的专家、一位辨认纹理的专家、一位认识卫星图像的专家……现在你希望把他们的"脑子"合并成一个人,让这个人同时具备所有八种能力。听起来美好,但现实往往很骨感:合并后的"超级专家",往往会在某些技能上表现得比原来的专家差,甚至把几种技能混成一锅粥,分不清楚。

这就是当今AI领域正在热烈研究的"模型合并"问题,更具体地说,是一种叫做"任务算术"(Task Arithmetic)的技术所面临的核心挑战。研究团队在这篇论文中不仅找到了这一现象背后的根本原因,还给出了一个简洁有效的解决方法——OrthoReg正交正则化器。

一、什么是"任务算术",它为什么会失败

要理解这项研究,得先从头说起:现代大型AI模型(比如能识别图像的CLIP模型)通常是在海量数据上预训练好的一个"通用底座"。如果你想让它学会识别交通标志,你就把它在交通标志数据上再训练一遍,得到一个新模型。这两个模型的权重(可以理解为AI大脑里每条神经连接的强度数值)之差,就被称为"任务向量"——它代表着让AI从通用状态变成特定专家所需要做的那些调整。

任务算术的思路极其优雅:既然每个专家模型都可以表示为"通用底座 + 某个任务向量",那么把多个任务向量直接相加,不就能得到一个同时具备多种能力的超级模型吗?这种方法完全不需要重新训练,只需要做一次加法运算,计算成本几乎可以忽略不计。

然而现实是,当你把多个任务向量叠加在一起时,它们常常会相互干扰,就像几个人同时往一个录音机里说话,最终录出来的声音混成一片,谁的话都听不清楚。这种干扰现象被称为"任务冲突",是任务算术最棘手的问题。

此前,学界提出了一个叫做"权重解耦"(Weight Disentanglement)的概念来描述理想状态:在这个理想状态下,把多个任务向量合并之后,针对任务A的输入只会被任务A的向量影响,而任务B的向量对它完全没有影响,反之亦然。就好像每个专家在脑子里有专属的抽屉,互不打扰。但"权重解耦"只是描述了我们希望达到的目标,并没有告诉我们:是什么东西让这种解耦成为可能,又是什么东西破坏了它?

研究团队正是从这个问题出发,踏上了"寻找底层原因"的探索之旅。

二、寻找根源:AI大脑里的"专属抽屉"

研究团队提出了一个全新的核心概念,叫做"任务特征专化"(Task-Feature Specialization,简称TFS)。

用一个具体的场景来理解这个概念:AI大脑里的每一层神经网络,都像是一个巨大的过滤器矩阵,矩阵的每一列可以看作一个"特征提取器",负责从输入中抓取某种特定的信息——比如边缘、颜色、纹理、形状之类的低级特征,或者更抽象的高级语义特征。

所谓"任务特征专化",就是指:理想情况下,识别交通标志这个任务只依赖矩阵中某几列特征提取器,而识别卫星图像这个任务依赖另外几列完全不重叠的特征提取器。每个任务都有自己的专属地盘,互不侵占。

研究团队用严格的数学证明了:如果一个模型确实满足这种"任务特征专化"的性质,那么把多个任务向量合并之后,权重解耦就必然成立。换句话说,TFS是权重解耦的一个充分条件。这是该领域第一次有人清晰地指出:是什么底层性质让任务算术在理想情况下能够工作。

证明的逻辑并不复杂,用直觉来理解的话是这样的:当你把任务B的向量叠加到模型上,它只会改动任务B专属的那几列特征提取器。而对于任务A的数据来说,它只关心任务A专属的那几列特征提取器,对任务B的列根本不敏感。所以任务B的向量对任务A的数据来说,就像空气一样毫无影响。

三、从"功能性质"到"几何形状":一个意外却重要的发现

故事到这里还没结束,因为研究团队接下来有了一个非常关键的发现。他们意识到,如果一个模型满足任务特征专化,那么它的权重矩阵必然会展现出一种特殊的几何形状:列向量正交性(Weight Vector Orthogonality,简称WVO)。

"正交"这个词听起来很数学,但其实非常直观。在二维平面上,两条相互垂直的线就是正交的;在更高维度的空间里,两个向量如果夹角恰好是90度,它们也是正交的。两个正交向量意味着它们彼此之间"毫无关联",你沿着一个方向移动,对另一个方向没有任何投影或影响。

为什么任务特征专化会导致列向量正交?直觉上是这样的:由于不同任务专用的特征提取器彼此独立、互不关联,它们在统计意义上就不会有相关性,而统计上不相关的列向量,在理想情况下,夹角会趋近于90度。

更令人惊喜的是,研究团队在真实的预训练CLIP ViT-B/16模型上做了测量,发现所有权重矩阵中,列向量两两之间的夹角分布非常尖锐地集中在90度附近——超过95%的列向量对的夹角与90度的偏差不超过5度。这说明,大规模预训练过程自然而然地推动了模型形成这种近乎完美的正交结构,就好像模型在学习海量数据的过程中,自发地把不同的"信息处理通道"分配给了不同的功能区域,它们彼此独立,互不干扰。

这一发现非常重要,因为它建立了一座桥梁:任务特征专化(看不见摸不着的功能性质)与列向量正交性(可以直接测量的几何性质)之间存在内在联系。TFS是两者共同的根本原因,而WVO则是TFS在几何上留下的可观测印记。

四、理想很美好,现实很骨感:当专属抽屉不够用时

既然预训练模型天然具有近似正交的结构,为什么任务算术还是经常出问题呢?

关键在于:当你开始对模型进行任务特定的微调(fine-tuning)时,预训练模型那种干净的正交结构往往会被破坏。更根本的问题是,"任务特征专化"是一个理想假设——它要求不同任务依赖完全不重叠的特征集合。但现实中,"识别交通标志"和"识别卫星图像"可能都需要依赖一些共同的底层特征,比如边缘检测、颜色对比度等。这种特征集合的重叠,被研究团队称为"特征重叠"(Feature Overlap)。

一旦存在特征重叠,某个共享特征的权重列就会同时被多个任务的微调过程修改。任务B的任务向量会在这些共享列上留下非零的修改,而对于任务A的数据来说,它们恰好也对这些列敏感,于是任务B的任务向量就会对任务A的数据产生干扰。就好像两个专家共用一个抽屉,结果彼此的文件混在一起,都找不到了。

这就是为什么光靠预训练模型的良好基础还不够——微调出来的任务向量本身,也需要被"管理",才能减少相互干扰。

五、OrthoReg:用一个小小的惩罚项,推动任务向量相互"保持距离"

既然直接强制执行"任务特征专化"太难(你不知道哪些特征属于哪个任务),研究团队换了一个思路:既然TFS会导致列向量正交性,那能不能反过来,在微调时直接强制权重更新矩阵的列向量相互正交,来间接促进解耦效果?

这个想法产生了OrthoReg——一个简单到令人吃惊的正则化项。在对模型进行任务A的微调时,不只是最小化任务A的损失函数,还额外加上一个惩罚项:要求每次微调产生的权重变化矩阵(?W),其列向量两两之间尽量相互正交,用数学语言说就是让?W转置乘以?W尽量接近单位矩阵(即每列与自己的内积为1,与其他列的内积为0)。

这个惩罚项极其简洁,只有一行公式,计算起来也很轻量,几乎不增加训练时间和显存占用。然而它的效果,研究团队通过严格的数学证明揭示了其背后的深层逻辑。

证明的核心思路分为两步。第一步是"范数控制":正交约束天然地限制了权重更新矩阵的大小,进而约束了整个任务向量的"体积"不会无限膨胀。第二步也是更关键的一步,叫做"角度控制":通过一系列巧妙的数学推导,利用极分解定理(一种把矩阵拆解为旋转部分和缩放部分的工具),可以证明当每个任务各自的权重更新矩阵内部都满足正交结构时,不同任务的任务向量之间,在统计意义上,夹角会趋向于90度——也就是说,它们会相互"保持距离",不再指向同一个方向。

任务向量相互正交,就意味着任务B的向量与任务A数据的梯度方向基本垂直,内积接近于零,干扰自然消失。这从理论上严格证明了OrthoReg能够促进权重解耦。

六、和前辈方法的比较:殊途同归的底层逻辑

研究团队还做了一件很有意思的事:把OrthoReg与此前最重要的理论方法——"切线空间任务算术"(Tangent Task Arithmetic,简称TTA)——做了深入比较,发现两者其实通过不同路径抵达了同一个目的地。

TTA的思路是:在预训练模型的"切线空间"里做微调,利用预训练模型神经切线核(NTK)的一种局部化性质——即来自不同任务域的数据点之间,NTK核函数的值接近于零——来自然地使不同任务的任务向量相互正交。这个方法在理论上很优雅,但有一个大问题:它需要在训练过程中持续计算雅可比矩阵(一种描述模型输出对所有参数梯度的巨型矩阵),这会使训练时间增加约75%,显存消耗增加约60%。在大模型上,这种开销是相当可观的。

OrthoReg则是显式地、直接地通过一个简单的惩罚项来强制正交性,计算开销极小。两种方法的底层目标是一致的——都是让不同任务的任务向量相互正交——但OrthoReg以更低的代价实现了相同乃至更好的效果。

七、实验结果:数字会说话

研究团队在一个标准的八任务图像分类基准上做了全面测试,使用的是CLIP预训练的视觉Transformer模型,包括ViT-B/32、ViT-B/16和ViT-L/14三种规模。测试涵盖汽车识别、纹理分类、欧洲卫星图像分类、交通标志识别、手写数字识别、遥感场景分类、场所识别和街景数字识别这八个差异极大的任务。

以最大的ViT-L/14模型为例,把OrthoReg应用于标准非线性微调这一基线方法后,合并后模型的绝对准确率从84.07%提升到了88.23%,提升了4.16个百分点。应用于TTA后,从86.19%提升到87.52%。应用于只微调注意力模块的方法后,从87.81%提升到了90.41%,创下了该基准的新纪录。

更能说明问题的是一个叫做"归一化准确率"的指标——它衡量的是合并后的单一模型与八个各自独立训练的专家模型的性能比值。如果这个值达到100%,就意味着合并后的模型表现与所有专家的独立组合完全一样好,说明任务之间的干扰几乎被完全消除。研究团队发现,在ViT-L/14上,注意力微调加上OrthoReg的归一化准确率达到了100.05%,非线性微调加上OrthoReg达到了100.08%。换句话说,合并后的单一模型竟然在多个任务上与甚至稍稍超过了独立的专家模型——这正是理想权重解耦的现实体现。

研究团队还测试了任务遗忘场景,也就是用减法把某个任务向量从模型中"删除",让模型忘记某项技能。实验发现,OrthoReg能显著增强遗忘效果,同时对其他无关能力的影响最小化。以ViT-L/14上的注意力微调方法为例,加上OrthoReg后,目标任务的准确率多下降了10.18个百分点,而模型在ImageNet上的通用能力几乎没有变化。这说明OrthoReg训练出来的任务向量更加"干净",像一把精准的手术刀,切除目标能力时不会误伤周围组织。

此外,研究团队还直接可视化了不同任务向量之间的余弦相似度热力图。没有OrthoReg的情况下,热力图的非对角线区域有明显的亮色,说明不同任务的向量高度相关;加上OrthoReg之后,非对角线区域变得明显更暗,直观地证明了不同任务的向量确实更加相互正交。

从计算成本来看,在ViT-L/14上,标准微调需要158分钟和约42.6GB显存,TTA需要281分钟和约68GB显存,而加了OrthoReg的标准微调只需要177分钟和约44.5GB显存——以极小的额外代价,换来了超越TTA的性能。

参数敏感性分析也表明,OrthoReg对超参数的选择并不敏感。随着正则化强度的增大,性能稳定提升;在一大段合并系数范围内,加了OrthoReg的模型始终比不加的版本表现更好,说明OrthoReg不仅提升了峰值性能,还让整个模型合并过程变得更加鲁棒。

在参数高效微调(LoRA)场景下,OrthoReg在几乎所有模块组合上都带来了一致的提升,唯一的例外是纯MLP层配置在小模型上有轻微下降,这与理论上注意力层承载更多任务特异信息的分析相吻合。

说到底,这项研究做的事情可以用一句话概括:找到了AI"多技能合并"失败的根本原因,并且提出了一个既简单又有效的修复方法。

归根结底,任务算术能不能成功,核心取决于不同任务的学习结果是否能"相互绕开",不在参数空间里撞车。而促成这一点的,是AI大脑中一种叫做任务特征专化的性质——不同任务各自占据一批独立的功能区域,互不侵占。这种性质在几何上会留下列向量正交的印记,而OrthoReg正是通过直接强化这种几何正交性,来间接推动功能上的任务解耦。

对于普通用户来说,这项研究的意义在于:未来的AI产品有可能更轻松地在不增加计算成本的情况下,把多个专项能力可靠地整合到一个模型里,而不必担心技能之间互相干扰。这意味着AI助手可以在不同专业领域之间切换得更加流畅,而开发者也可以更放心地通过叠加任务向量来"定制"AI的能力组合。

当然,这项研究也留下了一些有趣的开放问题:正交约束是否有更多样化的形式?能否在合并阶段而非微调阶段实施更灵活的正交性约束?这些都是值得继续探索的方向。如果你对这一切的数学细节感兴趣,可以通过arXiv:2604.17078找到完整论文,那里有所有定理的严格证明,以及更丰富的实验细节。

Q&A

Q1:任务算术(Task Arithmetic)是什么技术,它的核心问题是什么?

A:任务算术是一种无需重新训练、只通过对模型权重做加减法来合并多个专项AI能力的技术。每个专项能力被表示为"任务向量",即微调前后模型权重的差值。核心问题在于,将多个任务向量直接相加后,不同任务之间会相互干扰,导致合并后的模型在某些任务上表现变差,这种现象被称为任务冲突。

Q2:OrthoReg正交正则化器的具体做法是什么,它为什么能减少任务冲突?

A:OrthoReg在微调时对权重更新矩阵增加一个额外的惩罚项,要求更新矩阵的各列向量相互正交(夹角趋近于90度)。这种内部正交结构在数学上能够统计性地使不同任务的任务向量也相互正交,从而让任务B的向量对任务A的数据几乎没有影响,实现任务之间的功能解耦,降低合并时的相互干扰。

Q3:OrthoReg与切线空间任务算术(TTA)相比有什么优势?

A:两者底层目标相同,都是让不同任务的任务向量相互正交。但TTA需要在训练过程中持续计算雅可比矩阵,使训练时间增加约75%、显存占用增加约60%。OrthoReg只是在损失函数中加入一个简单的惩罚项,计算开销极小,在ViT-L/14上训练时间仅比标准微调多约12%,却能取得超过TTA的最终性能。

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
俄专家预言:中国军力追俄需10年,超美需25年

俄专家预言:中国军力追俄需10年,超美需25年

夏末moent
2026-05-02 16:43:36
12万落地RAV4荣放都市版,车主含泪吐槽优缺点!

12万落地RAV4荣放都市版,车主含泪吐槽优缺点!

生活魔术专家
2026-05-03 07:45:56
东风导弹泄密案!间谍郭万钧一家三口,全部被处以死刑

东风导弹泄密案!间谍郭万钧一家三口,全部被处以死刑

番外行
2026-03-31 08:28:28
值得吗?杜兰特降薪合同下赛季开始执行,2年9000万美元

值得吗?杜兰特降薪合同下赛季开始执行,2年9000万美元

懂球帝
2026-05-02 13:14:49
常规赛场均输29分!湖人打雷霆真没戏?别忘了这是季后赛的詹姆斯

常规赛场均输29分!湖人打雷霆真没戏?别忘了这是季后赛的詹姆斯

篮球小布丁
2026-05-03 07:55:18
四川一户人家火了,仅楼道一鞋柜就被无数人效仿,那叫一个高级

四川一户人家火了,仅楼道一鞋柜就被无数人效仿,那叫一个高级

一口娱乐
2026-05-03 05:30:07
77枚金牌不是万能,国家队不再原谅王濛,狂妄自大只会被抛弃

77枚金牌不是万能,国家队不再原谅王濛,狂妄自大只会被抛弃

牛牛叨史
2024-07-09 16:59:07
战争结束了,特朗普的清算开始了

战争结束了,特朗普的清算开始了

娱乐圈的笔娱君
2026-05-02 22:03:33
赵丽颖赵德胤已分手!赵丽颖遭利用二搭成空,男方转身带前女友拍片

赵丽颖赵德胤已分手!赵丽颖遭利用二搭成空,男方转身带前女友拍片

八卦王者
2026-05-01 14:24:52
中方已做最坏准备,一旦中美爆发战争,中国三大底牌一个比一个狠

中方已做最坏准备,一旦中美爆发战争,中国三大底牌一个比一个狠

流史岁月
2026-04-13 15:30:09
大S年轻时房间曝光,太过诡异引人不适,难怪有人曾说活不过50岁

大S年轻时房间曝光,太过诡异引人不适,难怪有人曾说活不过50岁

白马惊天剑
2026-05-02 21:45:18
金靖“瘦到认不出”热搜第一,本人回应:目前98斤,瘦的4斤全是脂肪,腰围小了5厘米!称每晚尽量9点半入睡:保暖和睡眠很重要

金靖“瘦到认不出”热搜第一,本人回应:目前98斤,瘦的4斤全是脂肪,腰围小了5厘米!称每晚尽量9点半入睡:保暖和睡眠很重要

极目新闻
2026-05-01 19:56:17
2026斯诺克世锦赛半决赛:吴宜泽17-16逆转马克-艾伦,晋级决赛

2026斯诺克世锦赛半决赛:吴宜泽17-16逆转马克-艾伦,晋级决赛

杨仔述
2026-05-03 07:34:45
湖人补强计划出炉!确立2大核心+放弃1巨星,瞄准29岁小伦纳德

湖人补强计划出炉!确立2大核心+放弃1巨星,瞄准29岁小伦纳德

篮球信息社
2026-05-02 22:37:01
历经27年艰难谈判,中国最终选择让步,中吉乌铁路为啥非修不可?

历经27年艰难谈判,中国最终选择让步,中吉乌铁路为啥非修不可?

老谢谈史
2026-05-03 00:59:19
曝华为Pura X Max系列横阔折手机首销单品激活近十万

曝华为Pura X Max系列横阔折手机首销单品激活近十万

IT之家
2026-05-03 08:01:06
过于逆天!德比斯最后1圈外线强吃2辆雅马哈 820在阳光下披上国旗

过于逆天!德比斯最后1圈外线强吃2辆雅马哈 820在阳光下披上国旗

风过乡
2026-05-02 21:11:13
“富人才不会把女儿养这么胖”,家长晒女儿喝60元矿泉水,被群嘲

“富人才不会把女儿养这么胖”,家长晒女儿喝60元矿泉水,被群嘲

番外行
2026-04-22 14:51:19
“为什么我的妈妈这么老?”9岁女孩因妈妈年龄情绪崩溃,太唏嘘

“为什么我的妈妈这么老?”9岁女孩因妈妈年龄情绪崩溃,太唏嘘

妍妍教育日记
2026-04-30 20:05:20
汤尤杯战报:决赛对阵出炉!21-5,石宇奇暴打世界第3!阿尤什惨败

汤尤杯战报:决赛对阵出炉!21-5,石宇奇暴打世界第3!阿尤什惨败

求球不落谛
2026-05-03 01:37:31
2026-05-03 08:56:49
科技行者 incentive-icons
科技行者
科技正在如何变革商业世界
8222文章数 563关注度
往期回顾 全部

科技要闻

库克罕见"拒答"!苹果正被AI供应链卡脖子

头条要闻

连扳3局逆转 "00后"吴宜泽首次晋级斯诺克世锦赛决赛

头条要闻

连扳3局逆转 "00后"吴宜泽首次晋级斯诺克世锦赛决赛

体育要闻

休赛期总冠军,轮到休斯顿火箭

娱乐要闻

高圆圆赵又廷游三亚 牵手逛街好甜蜜

财经要闻

雷军很努力 小米还是跌破了30港元大关

汽车要闻

同比大涨190% 方程豹4月销量29138台

态度原创

家居
本地
房产
公开课
军事航空

家居要闻

灵动实用 生活艺术场

本地新闻

用青花瓷的方式,打开西溪湿地

房产要闻

五一楼市彻底明牌!塔尖人群都在重仓凯旋新世界

公开课

李玫瑾:为什么性格比能力更重要?

军事要闻

伊朗公布伊方最新谈判方案

无障碍浏览 进入关怀版