网易首页 > 网易号 > 正文 申请入驻

NeurIPS 2022 | S-Prompts:摆脱新旧任务零和游戏,实现双赢的域增量学习方法

0
分享至

本文是对我们NeurIPS 2022被接收的文章“S-Prompts Learning with Pre-trained Transformers: An Occam’s Razor for Domain Incremental Learning”的介绍。在该工作中我们提出一个针对域增量学习的简单高效的方法(S-Prompts)。我们设计Prompts训练策略对每个域的知识进行独立学习,从而将预训练模型增量地迁移学习不同域。所提出的方法可以让新旧知识互不干扰,并达到双赢的结果。很荣幸地,我们的文章被NeurIPS 2022收录,项目代码即将开源,欢迎大家试用。

论文链接: https://arxiv.org/pdf/2207.12819.pdf 代码链接: https://github.com/iamwangyabin/S-Prompts (暂未开放,敬请期待)
一、概述

增量学习(连续学习)目标是在数据流中增量地训练一个机器学习模型,使得模型能够在获得新知识的同时不遗忘已经学习到的旧知识。灾难性遗忘(catastrophic forgetting)现象是增量学习的最大挑战之一,也就是模型在学习新知识的同时旧知识会出现严重的遗忘,从而导致模型在旧任务上性能下降。早期工作通过存储少量旧数据或者设计正则损失函数来维持模型在旧任务上的精度,然而这不可避免地限制了在新任务上的学习能力,如图1。因此大多数增量方法最后会陷入新旧任务之间的拔河游戏(零和游戏)–一方获得精度的同时会让另一方损失精度。这个挑战在域增量(Domain-incremental learning)问题上尤为明显,不同域的知识可能很难在同一个空间中共存。此外保存旧任务的数据会占用大量存储空间,并且有隐私问题和新旧数据量不平衡的问题。因此本工作从实际应用需求出发,聚焦在无存储样本的域增量学习任务

在本工作中,我们打破成规提出一个双赢策略来解决域增量问题,通过学习跨域独立的Prompts使得模型在每个域都得到最佳性能而没有任何相互干扰,并将学习到的Prompts存储来消除灾难性遗忘问题。所提出的新的增量模式仅仅为每个任务增加微不足道的参数(Prompts)学习当前域的知识,而预训练网络的其余部分都是冻结固定的,因此非常简单且有效。为了在推理阶段选择合适的Prompts,每个阶段的训练数据特征都会用K-Means计算得到域中心作为这个域的表示。在推理时,对于一个样本,我们先提取这个样本在预训练模型(ViT)的特征,再将这个特征用K-NN找存储的最近域中心作为挑选Prompts的依据。假设有S个阶段(Session),我们最终会独立地学习S个域的Prompts,因此本方法命名为S-Prompts。

此外为更好的学习不同域的Prompts,我们提出全新的针对视觉预训练模型的Prompts学习方法(S-iPrompts)以及针对视觉-语言预训练模型的Prompts学习方法(S-liPrompts)。本方法在三个标准DIL基准数据集上取得了较高的成绩,S-Prompts明显优于最新的无样本增量方法(平均精度相对提高30%),甚至对于使用样本的方法也高出6%精度。S-Prompts仅仅有极微小的参数增加,例如,在S-liPrompts中每个域增加0.03%参数量。

图1 现有工作和本工作区别
二、方法

图2 S-liPrompts结构2.1 S-Prompts框架简述

S-Prompts的核心思想是借助预训练模型,对每个域逐个学习Prompts。在增量训练时,预训练模型始终是固定的,通过训练Prompts可以将预训练模型调整迁移到不同的域中。在这样设定下,不同的域的知识被编码进仅有少量参数的Prompts中,这样不仅避免了存储旧样本,同时可以极大地减少灾难性遗忘。

然而这种设计在推理时需要对给定的样本挑选合适的Prompts。由于我们已经有了预训练模型,那么预训练模型本身可以帮助选择合适的Prompts。具体而言,如图2所示,我们应用K-Means来得到每个域的训练数据的特征中心,这些特征是直接使用预训练模型提取的,并没有应用Prompts。在推理时,我们直接使用K-NN来查询应该使用哪个域的Prompts。由于域增量任务的特征往往差别很大,这种简单的做法可以在DIL中获得良好的性能。

2.2 图像Prompts(S-iPrompts)学习策略

在S-iPrompts的方法中,对于一个域S,我们使用一组独立的连续可学习参数(即Prompts) 作为预训练ViT的输入的一部分,其中 和 分别是Prompts长度和维度。

如图2所示,给定域 的图片 ,ViT的输入为 ,其中 是图片tokens, 是预训练模型ViT的class tokens。当在新的域 上增量训练时,会添加一组新的独立的Prompts 。因此,按顺序学习所有域会产生一个域的Prompt Pool。Prompt Pool可以定义为 。

对于Classifier,每个session都会学习单独分类器并且存储下来,在推理时挑选对应的classifier。对于ViT,分类器就是全链接层,表示为 , 其中 , , 分别是特征维度和总共的类别数量。

每个增量阶段都有独立的分类器,因此我们也有一个分类器池 。


2.3 语言-图像Prompts(S-liPrompts)学习策略

S-liPrompts是为了能够将现在很多的视觉-语言预训练模型,例如CLIP,更好地增量迁移到下游任务上。对于阶段 ,我们使用 个可学习的向量 作为语言端的prompts ,其中 分别是Prompts的长度和维度。

对于第 个类, 语言编码器(text encoder)的全部输入为 , 其中 是第 个类的类别名称编码。

语言Prompts同样和各自的域相关联,在训练完所有增量阶段后,可以同样得到一个Prompt Pool存放所有的语言Prompts,如 。

CLIP的语言编码器 以上文定义的 作为输入并且输出一个向量表示作为某个类的特征。

令 为视觉编码器 提取的图片 的特征, 是使用文字编码器 提取的类别 的特征,CLIP分类器使用如下公式计算预测概率。

三、实验结果

在实验设置上,本工作选择了三个在DIL任务上有代表性的大型评测基准:CDDB,CORE50和DomainNet。所有方法均使用相同预训练ViT-B/16或者同性能的Backbone(针对DyTox使用的是预训练ConViT)。

表1、2和3结果展示了所提出的S-iPrompts和S-liPrompts极大程度地超越了已有的其他无样本增量方法。甚至S-liPrompts得到了相对30%的精度提升。此外相对于存样本的方法,所提出的S-Prompts在不存样本的情况下也取得了6%左右的精度提升。

表1 CDDB数据集结果

表2 CORE50数据集结果

表3 DomainNet数据集结果
四、方法总结与未来展望

在本工作中我们提出使用Prompts来解决域增量学习中的灾难性遗忘现象,并且在多个数据集取得优秀的性能表现。尽管所提出的方法同时适用任务增量任务(TIL),但是还无法做类增量问题(CIL)。此外Prompts的设计还存在较大的优化空间,例如Prompts目前只作为最初的输入,但是Prompts的放置位置有很多可能性。最后,Prompt Tuning作为Efficient Finetuning技术的一种,未来可能会在增量学习中得到更深入的应用,特别是大规模预训练模型的兴起,会进一步推进对增量学习问题的研究。

作者:王亚斌

Illustration by Delesign Graphics from IconScout

-The End-

扫码观看!

本周上新!

关于我“

将门是一家以专注于发掘、加速及投资技术驱动型创业公司的新型创投机构,旗下涵盖将门创新服务将门技术社群以及将门创投基金

将门成立于2015年底,创始团队由微软创投在中国的创始团队原班人马构建而成,曾为微软优选和深度孵化了126家创新的技术型创业公司。

如果您是技术领域的初创企业,不仅想获得投资,还希望获得一系列持续性、有价值的投后服务,欢迎发送或者推荐项目给我“门”:

bp@thejiangmen.com

点击右上角,把文章分享到朋友圈

⤵一键送你进入TechBeat快乐星球

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
73年开国上将探望老战友,发现连看病钱都没有,县委竟说:怀疑他是特务

73年开国上将探望老战友,发现连看病钱都没有,县委竟说:怀疑他是特务

史海孤雁
2026-03-17 19:53:12
忍了五年,商务部首次亮剑:谁配合美国制裁,就让谁在中国赔光

忍了五年,商务部首次亮剑:谁配合美国制裁,就让谁在中国赔光

铁锤简科
2026-05-06 14:30:59
任何一个男人到了六十岁后,只要还对异性怀有欣赏与追求,往往因为这两件事

任何一个男人到了六十岁后,只要还对异性怀有欣赏与追求,往往因为这两件事

心理观察局
2026-05-04 08:51:11
为什么铁线礁插上五星红旗让西方媒体破防?三个维度告诉你真相

为什么铁线礁插上五星红旗让西方媒体破防?三个维度告诉你真相

动漫里的童话
2026-05-07 10:33:44
行为心理学家发现:凡是从不向人诉苦、崩溃时也独自消化的人,不是内心强大,也不是无人可说,而是识破了两个情绪外露后的隐性代价

行为心理学家发现:凡是从不向人诉苦、崩溃时也独自消化的人,不是内心强大,也不是无人可说,而是识破了两个情绪外露后的隐性代价

心理观察局
2026-05-07 08:50:15
男子骑摩托车撞人致2死1伤,保险公司给每位死者49000元安葬费,受害者家属:两位遇难者的遗体存放在殡仪馆,不接受赔偿结果

男子骑摩托车撞人致2死1伤,保险公司给每位死者49000元安葬费,受害者家属:两位遇难者的遗体存放在殡仪馆,不接受赔偿结果

大风新闻
2026-05-06 22:13:02
印度首富家亮相威尼斯,“代表印度”惹争议,62岁太太的耳环耀眼

印度首富家亮相威尼斯,“代表印度”惹争议,62岁太太的耳环耀眼

译言
2026-05-07 10:10:22
她拒唱国歌否认是中国籍,还将俩儿子户口落到国外,她现状如何?

她拒唱国歌否认是中国籍,还将俩儿子户口落到国外,她现状如何?

混沌录
2026-04-28 22:29:08
济尔哈朗屠湘潭多惨烈?二十万人仅剩不到百人, 有人留下屠城血证

济尔哈朗屠湘潭多惨烈?二十万人仅剩不到百人, 有人留下屠城血证

鹤羽说个事
2026-05-05 22:30:29
实话实说!输给北京队8分,广东队有3人可以送走了

实话实说!输给北京队8分,广东队有3人可以送走了

体育哲人
2026-05-07 11:50:38
孔帕尼:没有一帧画面显示莱默尔手球;愿以后判罚能支持我们

孔帕尼:没有一帧画面显示莱默尔手球;愿以后判罚能支持我们

懂球帝
2026-05-07 07:34:15
女子玩“悬崖秋千”坠亡,目击者发声:所有人都吓懵了,看到遇难女孩头部撞到山崖,“连续几天做噩梦,一直都是那个画面”

女子玩“悬崖秋千”坠亡,目击者发声:所有人都吓懵了,看到遇难女孩头部撞到山崖,“连续几天做噩梦,一直都是那个画面”

芒果都市
2026-05-07 10:49:42
绝不妥协!穆里尼奥向皇马提三大硬性要求,不答应就不来

绝不妥协!穆里尼奥向皇马提三大硬性要求,不答应就不来

奶盖熊本熊
2026-05-07 05:50:27
打疯了!早田希娜11-0世界冠军,张本美和零封,王曼昱一单轰11-0

打疯了!早田希娜11-0世界冠军,张本美和零封,王曼昱一单轰11-0

乐悠悠娱乐
2026-05-07 10:47:43
纯电版桑塔纳?虽是恶搞,但热度极高!

纯电版桑塔纳?虽是恶搞,但热度极高!

热点科技
2026-05-05 15:51:10
张帆又有新聊天记录,三宁极力挽留,俞队长盛情邀请,张帆赢了

张帆又有新聊天记录,三宁极力挽留,俞队长盛情邀请,张帆赢了

林子说事
2026-05-07 09:47:14
到2030年,持有现金和持有房产的人,终将会有两种截然不同的结局

到2030年,持有现金和持有房产的人,终将会有两种截然不同的结局

说故事的阿袭
2026-05-06 14:50:47
合同到期!CBA昔日王牌后卫与主教练闹翻,或离开老东家

合同到期!CBA昔日王牌后卫与主教练闹翻,或离开老东家

国篮会自强
2026-05-06 19:41:11
人口争夺战!成都,虹吸重庆!

人口争夺战!成都,虹吸重庆!

城市财经
2026-05-07 11:37:29
斯诺克世界排名:小特蝉联第一,赵心童第三,吴宜泽第四

斯诺克世界排名:小特蝉联第一,赵心童第三,吴宜泽第四

懂球帝
2026-05-07 09:30:50
2026-05-07 12:56:49
将门创投 incentive-icons
将门创投
加速及投资技术驱动型初创企业
2367文章数 596关注度
往期回顾 全部

科技要闻

凌晨突发!马斯克租22万块GPU给“死敌”

头条要闻

北京三位女大学生青海自驾游2死1伤 伤者一审获刑4年

头条要闻

北京三位女大学生青海自驾游2死1伤 伤者一审获刑4年

体育要闻

阿森纳巴黎会师欧冠决赛!5月31日开战

娱乐要闻

小S阿雅重返大S母校,翻看大S毕业照

财经要闻

特朗普:美伊“很有可能”达成协议

汽车要闻

理想为什么不做轿车,有了解释……

态度原创

手机
时尚
旅游
房产
公开课

手机要闻

iPhone Air 2曝光:搭载4800万像素双摄,明年春季问世

“白色阔腿裤”今年夏天又火了!这样穿时髦又高级

旅游要闻

“五一”假期盘点:文旅消费亮点纷呈

房产要闻

五一海南楼市,太淡了!

公开课

李玫瑾:为什么性格比能力更重要?

无障碍浏览 进入关怀版