网易首页 > 网易号 > 正文 申请入驻

ICCV 2021放榜!发现一篇宝藏论文——如何一次性训练100,000+个Vision Transformers?

0
分享至

作者 | AI 科技评论

经过漫长的等待,ICCV 2021终于迎来放榜时刻!

ICCV官方在推特上公布了这一消息,并表示今年共有6236篇投稿,最终1617篇论文被接收,接收率为25.9%,相比于2017年(约29%),保持了和2019年相当的较低水平。

而投稿量则依旧逐年大幅增长,从2017年的2143篇,到2109年的4328篇,再到如今的6236篇,相比上一届多了50%左右。

你看邮件的时候是这表情吗?

不得不说,官方皮起来也是接地气、真扎心、没谁了哈哈~

论文ID地址:https://docs.google.com/spreadsheets/u/1/d/e/2PACX-1vRfaTmsNweuaA0Gjyu58H_Cx56pGwFhcTYII0u1pg0U7MbhlgY0R6Y-BbK3xFhAiwGZ26u3TAtN5MnS/pubhtml

也就在今天,AI科技评论发现了一项非常厉害的研究,号称可一次性训练10万个ViT,论文也刚刚喜提ICCV accepted!

近来,Vision Transformer (ViT) 模型在诸多视觉任务中展现出了强大的表达能力和潜力。

纽约州立大学石溪分校与微软亚洲研究院的研究人员提出了一种新的网络结构搜索方法AutoFormer,用来自动探索最优的ViT模型结构。

AutoFormer能一次性训练大量的不同结构的ViT模型,并使得它们的性能达到收敛。

其搜索出来的结构对比手工设计的ViT模型有较明显的性能提升。

方法亮点:

  • 同时训练大量Vision Transformers模型,使其性能接近单独训练;

  • 简单有效,能够灵活应用于Vision Transformer的变种搜索;

  • 性能较ViT, DeiT等模型有较明显提升。

论文地址:https://arxiv.org/abs/2107.00651

代码地址:https://github.com/microsoft/AutoML/tree/main/AutoFormer

1

引言

最近的研究发现,ViT能够从图像中学习强大的视觉表示,并已经在多个视觉任务(分类,检测,分割等)上展现出了不俗的能力。

然而,Vision Transformer 模型的结构设计仍然比较困难。例如,如何选择最佳的网络深度、宽度和多头注意力中的头部数量?

作者的实验发现这些因素都和模型的最终性能息息相关。然而,由于搜索空间非常庞大,我们很难人为地找到它们的最佳组合。

图1: 不同搜索维度的变化会极大地影响模型的表现能力

本文的作者提出了一种专门针对Vision Transformer 结构的新的Neural Architecture Search (NAS) 方法 AutoFormer。AutoFormer大幅节省了人为设计结构的成本,并能够自动地快速搜索不同计算限制条件下ViT模型各个维度的最佳组合,这使得不同部署场景下的模型设计变得更加简单。

图2: AutoFormer的结构示意图,在每一个训练迭代中,超网会动态变化并更新相应的部分权重

2

方法

常见的One-shot NAS 方法[1, 2, 3]通常采取权重共享的方式来节省计算开销,搜索空间被编码进一个权重共享的超网(supernet) 中,并运用超网权重作为搜索空间中结构权重的一个估计。其具体搜索过程可分为两个步骤,第一步是更新超网的权重,如下公式所示。

第二步是利用训练好的超网权重来对搜索空间中结构进行搜索。

在实验的过程中,作者发现经典One-shot NAS方法的权重共享方式很难被有效地运用到Vision Transformer的结构搜索中。这是因为之前的方法通常仅仅共享结构之间的权重,而解耦同一层中不同算子的权重。

如图3所示,在Vision Transformer的搜索空间中,这种经典的策略会遇到收敛缓慢和性能较低的困难。

图3 权重纠缠和经典权重共享的训练以及测试对比

受到OFA [4], BigNAS [5] 以及Slimmable networks [6, 7] 等工作的启发,作者提出了一种新的权重共享方式——权重纠缠(Weight Entanglement)。

如图4所示,权重纠缠进一步共享不同结构之间的权重,使得同一层中不同算子之间能够互相影响和更新,实验证明权重纠缠对比经典的权重共享方式,拥有占用显存少,超网收敛快和超网性能高的优势。

同时,由于权重纠缠,不同算子能够得到更加充分的训练,这使得AutoFormer能够一次性训练大量的ViT模型,且使其接近收敛。(详情见实验部分)

图4 权重纠缠和权重共享的对比示意图

3

实验

作者设计了一个拥有超过1.7x10^17备选结构的巨大搜索空间,其搜索维度包括ViT模型中的五个主要的可变因素:宽度 (embedding dim)、Q-K-V 维度 (Q-K-V dimension)、头部数量 (head number)、MLP 比率 (MLP ratio) 和网络深度 (network depth),详见表1。

表1:AutoFormer的搜索空间

为了验证方法的有效性,作者将AutoFormer搜索得到的结构和近期提出的ViT模型以及经典的CNN模型在ImageNet上进行了比较。

对于训练过程,作者采取了DeiT [8]类似的数据增强方法,如 Mixup, Cutmix, RandAugment等, 超网的具体训练参数如表2所示。所有模型都是在 16块Tesla V100 GPU上进行训练和测试的。

表2 超网的训练参数

如图5 和表3所示,搜索得到的结构在ImageNet数据集上明显优于已有的ViT模型。

表3:各个模型在ImageNet 测试集上的结果

从表4中可以看出,在下游任务中,AutoFormer依然表现出色,利用仅仅25%的计算量就超越了已有的ViT和DeiT模型,展现了其强大的泛化性能力。

表4:下游分类任务迁移学习的结果

同时,如图5所示,利用权重纠缠,AutoFormer能够同时使得成千上万个Vision Transformers模型得到很好的训练(蓝色的点代表从搜索空间中选出的1000个较好的结构)。

不仅仅使得其在搜索后不再需要重新训练(retraining)结构,节约了搜索时间,也使得其能在各种不同的计算资源限制下快速搜索最优结构。

图5:左:AutoFormer能够同时训练大量结构,并使得其接近收敛。蓝色的点代表从搜索空间中选出的1000个较好的结构。右:ImageNet上各模型对比

4

结语

本文提出了一种新的专用于Vision Transformer结构搜索的One-shot NAS方法—— AutoFormer。AutoFormer 配备了新的权重共享机制,即权重纠缠 (Weight Engtanglement)。在这种机制下,搜索空间的网络结构几乎都能被充分训练,省去了结构搜索后重新训练(Retraining)的时间。大量实验表明所提出的算法可以提高超网的排序能力并找到高性能的结构。在文章的最后,作者希望通过本文给手工ViT结构设计和NAS+Vision Transformer提供一些灵感。在未来工作,作者将尝试进一步丰富搜索空间,以及给出权重纠缠的理论分析。

参考文献[1] Guo, Zichao, et al. "Single path one-shot neural architecture search with uniform sampling“.ECCV, 2020.[2] Wu, Bichen, et al. "Fbnet: Hardware-aware efficient convnet design via differentiable neural architecture search."CVPR. 2019.[3] Wan, Alvin, et al. "Fbnetv2: Differentiable neural architecture search for spatial and channel dimensions." CVPR. 2020.[4] Cai, Han, et al. "Once-for-All: Train One Network and Specialize it for Efficient Deployment."ICLR. 2019.[5] Yu, Jiahui, et al. "Bignas: Scaling up neural architecture search with big single-stage models."ECCV, 2020.[6] Yu, Jiahui, et al. "Slimmable Neural Networks."ICLR. 2018.[7] Li, Changlin, et al. "Dynamic slimmable network." CVPR. 2021.[8] Touvron, Hugo, et al. "Training data-efficient image transformers & distillation through attention."International Conference on Machine Learning. PMLR, 2021.

若二维码过期或群内满200人时,添加小助手微信(AIyanxishe3),备注ICCV2021拉你进群。

雷锋网雷锋网雷锋网

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
户外“顶流”神秘园粉丝疯涨900万,鳌太线的“生死大戏”让打工人过足徒步瘾

户外“顶流”神秘园粉丝疯涨900万,鳌太线的“生死大戏”让打工人过足徒步瘾

秋叶大叔
2026-01-10 07:39:48
郑丽文没让大陆失望,做对4件事反将赖清德一军,蔡正元或迎转机

郑丽文没让大陆失望,做对4件事反将赖清德一军,蔡正元或迎转机

知鉴明史
2026-01-09 18:19:17
马筱梅晒婴儿房布置好温馨!朋友送迪奥宝宝服价格贵,儿子没跑了

马筱梅晒婴儿房布置好温馨!朋友送迪奥宝宝服价格贵,儿子没跑了

韩驰
2026-01-10 13:12:10
一名女性遭遇已婚985高校博士后“恋爱骗局”后:举报、起诉、制作PDF……

一名女性遭遇已婚985高校博士后“恋爱骗局”后:举报、起诉、制作PDF……

极目新闻
2026-01-09 19:14:25
1996年,蒋孝勇的葬礼上,哥哥蒋孝严的一张留影,满脸悲伤!

1996年,蒋孝勇的葬礼上,哥哥蒋孝严的一张留影,满脸悲伤!

潘撱旅行浪子
2026-01-10 14:33:10
感谢火箭!感谢杜兰特!8换1交易送来逆袭真核 10战8胜冲西部前六

感谢火箭!感谢杜兰特!8换1交易送来逆袭真核 10战8胜冲西部前六

锅子篮球
2026-01-10 17:24:55
不是迷信!明天十一月二十三,提醒:1不问,2不用,3不吃

不是迷信!明天十一月二十三,提醒:1不问,2不用,3不吃

小谈食刻美食
2026-01-10 13:26:44
31422分!杜兰特生涯总分超张伯伦升历史第7 下一个目标诺天王

31422分!杜兰特生涯总分超张伯伦升历史第7 下一个目标诺天王

罗说NBA
2026-01-10 12:37:38
冷空气来了!成都明日气温低至0℃

冷空气来了!成都明日气温低至0℃

爱看头条
2026-01-10 19:47:05
日本网友卖老家土地时,发现130年前老祖宗已经把土地抵押贷了款,还剩108日元没还……

日本网友卖老家土地时,发现130年前老祖宗已经把土地抵押贷了款,还剩108日元没还……

日本物语
2026-01-08 21:44:03
中信证券:预计2026年一季度经济景气度有望抬升 风险资产中波动相对较低的权益资产更具性价比

中信证券:预计2026年一季度经济景气度有望抬升 风险资产中波动相对较低的权益资产更具性价比

证券时报
2026-01-10 10:47:09
多哈冠军赛:女单首个四强诞生,王艺迪被淘汰,曼昱下轮对手确定

多哈冠军赛:女单首个四强诞生,王艺迪被淘汰,曼昱下轮对手确定

陈赩爱体育
2026-01-10 19:01:04
邵佳一:只有胜利才能带来最实际的信心;球员年龄不是问题

邵佳一:只有胜利才能带来最实际的信心;球员年龄不是问题

懂球帝
2026-01-10 16:47:12
灯光暗、跑道裂、公厕脏!深圳一公园被市民吐槽,街道办回应

灯光暗、跑道裂、公厕脏!深圳一公园被市民吐槽,街道办回应

南方都市报
2026-01-09 14:34:08
抗美援朝期间毛主席接见38军政委,握手时皱眉道:你怎么这么瘦?

抗美援朝期间毛主席接见38军政委,握手时皱眉道:你怎么这么瘦?

史之铭
2026-01-10 14:04:42
黄埔名将胡琏:晚年绝口不提粟裕,死前让子孙拿纸笔画下一幅地图

黄埔名将胡琏:晚年绝口不提粟裕,死前让子孙拿纸笔画下一幅地图

宅家伍菇凉
2025-12-21 09:30:03
比3倍中国卫星还猛?脑机接口与商业航天   深度布局6大龙头曝光

比3倍中国卫星还猛?脑机接口与商业航天 深度布局6大龙头曝光

元芳说投资
2026-01-10 07:00:07
外资开年频频加仓中国资产

外资开年频频加仓中国资产

财联社
2026-01-10 15:08:08
1月9日新片集体扑街,4部电影票房均未破300万,为何观众不买单?

1月9日新片集体扑街,4部电影票房均未破300万,为何观众不买单?

小椰的奶奶
2026-01-10 16:22:20
为啥反复强调女孩不要一个人去爬山?网友经历给人当头一棒!顿悟了

为啥反复强调女孩不要一个人去爬山?网友经历给人当头一棒!顿悟了

另子维爱读史
2026-01-08 21:56:08
2026-01-10 20:28:49
雷峰网 incentive-icons
雷峰网
关注智能与未来!
68315文章数 656051关注度
往期回顾 全部

科技要闻

传DeepSeek准备第二次震惊全世界

头条要闻

特朗普宣称"我不需要国际法" 墨西哥成美新的打击目标

头条要闻

特朗普宣称"我不需要国际法" 墨西哥成美新的打击目标

体育要闻

怒摔水瓶!杜兰特30+12 难阻火箭遭双杀

娱乐要闻

吴速玲曝儿子Joe是恋爱脑

财经要闻

这不算诈骗吗?水滴保诱导扣款惹众怒

汽车要闻

宝马25年全球销量246.3万台 中国仍是第一大市场

态度原创

教育
手机
房产
本地
公开课

教育要闻

2027考研变化!这些专业,要求具备工作经验

手机要闻

内存价格暴涨 魅族22 Air取消上市计划

房产要闻

66万方!4755套!三亚巨量房源正疯狂砸出!

本地新闻

云游内蒙|“包”你再来?一座在硬核里酿出诗意的城

公开课

李玫瑾:为什么性格比能力更重要?

无障碍浏览 进入关怀版