网易首页 > 网易号 > 正文 申请入驻

CVPR 2020 |商汤提出基于贪心超网络的One-Shot NAS方法

0
分享至

本文介绍的是CVPR2020论文《GreedyNAS: Towards Fast One-Shot NAS withGreedy Supernet》,作者来自商汤。

作者 | 商 汤

编辑 | 丛 末

论地址:https://arxiv.org/abs/2003.11236

1

导读

在CVPR 2020上,商汤移动智能事业群-3DAR-身份认证与视频感知组提出了基于贪心超网络的One-Shot NAS方法,显著提升了超网络直接在大规模数据集上的搜索训练效率,并在标准ImageNet数据集上取得了300M FLOPs量级的SOTA。GreedyNAS论文通过提出一种贪心的超网络结构采样训练方法,改善了训练得到的超网络对结构的评估能力,进而帮助搜索算法得到精度更高的结构。

2

动机与背景

在目前的神经结构搜索领域中,One-ShotNAS方法由于其搜索开销小被广泛应用,这些方法使用一个权重共享的超网络(supernet)作为不同网络结构的性能评估器,因此,supernet的训练对搜索结果的好坏至关重要。然而,目前的方法一般采用了一个基本的假设,即supernet中每一个结构是同等重要的,supernet应该对每个结构进行准确评估或相对排序。然而,supernet中所包含的结构量级(搜索空间的size)是非常巨大的(如7^{21} ),因此准确的评估对于supernet来说是非常困难的,导致supernet中结构的表现与其真实表现相关性很差 [1]。

在本篇论文中,我们提出一种贪心超网络来减轻supernet的评估压力,使得supernet更加贪心地注重于有潜力的好结构,而不是全体。具体而言,在supernet训练过程中,我们提出了一种多路径拒绝式采样方法(multi-path sampling with rejection)来进行路径滤波 (path filtering),使得有潜力的好结构得到训练。通过这种方法,supernet的训练从整个搜索空间贪心地缩小到了有潜力的结构组成的空间中,因此训练的效率得到了提升。同时,为了进一步增大有潜力结构的采样概率与提高训练效率,我们基于exploration and exploitation准则,使用一个经验池存储评估过的“好”结构,用来加强贪心度并为后续的搜索提供好的初始点。本论文搜索出的结构在ImageNet(mobile setting) 下取得了SOTA(state-of-the-art) 的结果。

3

主要思路

巨大的搜索空间带来的评估压力使supernet难以准确地区分结构的好坏,由于所有结构的权重都是在supernet中高度共享的,如果一个差的结构被训练到了,好的结构的权重也会受到干扰。这样的干扰会削弱好网络的最终评估精度,影响网络的搜索结果。同时,对差的结构进行训练相当于对权重进行了没有必要的更新,降低supernet的训练效率。

1、多路径拒绝式采样

针对上述问题,一个直接的想法就是基于贪心策略,在训练过程中只训练好的结构。但很显然,我们并不知道一个随机初始化的搜索空间中哪些结构是好的。假设对于一个supernet,我们考虑其搜索空间A的一个完备划分,即:

搜索空间可以如上划分为好的空间与差的空间,且好空间中每一个结构的ACC均大于差空间,即

于是,一个理想的采样策略是直接在好空间中进行采样即可。然而根据上面的不等式,确定所有结构中哪些是来自好空间需要遍历整个搜索空间,计算开销是无法接受的。为了解决这个问题,我们首先考虑从全空间中进行的一个均匀采样,那么每个path来自好空间的概率为:

为了得到需要的来自于好空间的结构,我们进一步考虑一个多维的Bernoulli实验,那么有如下的结论:

我们取m = 10和m = 20,对定理1的概率进行绘制,如Figure 2所示,可见这种采样下得到来自好空间中的path的概率是很高的。

于是,我们可以对采样到的多个结构进行评估筛选的方法提升采样到“好”结构的概率,即每次采样m个结构,从中选取评估指标最高的k个结构进行训练。但是,对结构进行评估需要在验证集上计算其ACC,这样会增加非常多计算量(我们的ImageNet验证集大小为50k)。为了减少评估网络的消耗,我们从验证集中随机选取了一小部分(如1000张图)组成小验证集,并使用在小验证集上的loss作为结构的排序指标。使用小验证集进行评估,在保证评估准确性的前提下,相较uniformsampling方法只增加了很少的计算代价,详见论文实验部分。

2、基于exploration and exploitation策略的路径候选池

在前面提到的路径滤波中,我们通过评估可以区分出较好的结构,为了进一步提升训练效率,受蒙特卡洛树搜索(Monte Carlo tree search)[4] 和 deep Q-learning[5] 中常用的exploration and exploitation策略启发,我们提出使用一个路径候选池用于存放训练过程中评估过的“好”结构,并进行重复利用。具体而言,候选池可以看作是一个固定大小的有序队列,其只会存储所有评估过结构中得分前n(候选池大小) 的结构。

有了候选池的帮助,我们可以选择从搜索空间中或候选池中采样结构。从候选池中采样的结构是好结构的概率更高,但可能会牺牲结构的多样性。为了平衡exploration与exploitation,我们采用-采样策略,即以一定的概率从整个搜索空间A或候选池P中采样结构α:

在网络刚开始训练时评估过的结构较少,候选池中存储的结构是好结构的可信度不高,因此从候选池中采样的概率在开始时设为0,并线性增加至一个较高的值(在实验中,我们发现0.8是一个较优的值)。若候选池中的结构都来自好空间,通过使用候选池,定理1中好网络的采样概率q提升为:

因此,采样10个结构,至少有5个好结构的概率由88.38%提升至99.36% 。

3、基于候选池的earlystopping策略

候选池的更新为supernet的训练情况提供了一个很好的参考。若候选池发生的更新(顺序变换、进出)较少,可以认为超网络中较好的网络维持着一个相对稳定的排序,这也说明此时的supernet已经是一个较好的性能评估器,因此训练进程可以提前结束,而不需要训练至网络完全收敛。

在实际使用中,我们会比较当前候选池P与t轮迭代前的候选池P_t的差异度,若差异度低于某个数值(我们的实验使用0.08),训练停止。差异度的定义如下:

4、基于候选池的搜索策略

Supernet训练结束后,我们可以使用验证集的ACC评估结构的好坏。本文使用NSGA-II 进化算法[3] 进行结构搜索。我们在进化算法中使用候选池中的结构进行population的初始化,相较于随机初始化,借助于候选池能够使进化算法有一个更好的初始,提升搜索效率及最终的精度。

如 Figure 3 所示,我们在同一个训练好的supernet上使用了随机初始化与候选池初始化两种方式进行搜索,使用候选池初始化搜索到的结构的准确率平均会比随机初始化要高。

4

实验结果

为了与目前的one-shot方法进行对比,我们首先在与 ProxylessNAS[6] 一样的 MobileNetV2 搜索空间上进行结构搜索,结果见 Table 1 。

同时为了进一步提升网络性能,我们在加入了SE的更大搜索空间上进行搜索,结果见 Table 2 。

5

Ablation Study

1、多路径拒绝式采样中的路径评估相关性

我们对随机初始化、uniformsampling、greedy方法训练得到的supernet下的小验证集指标与完整验证集ACC相关性进行了评估,如 Table 3 所示。可见在小验证集上使用loss相比ACC会得到更高的相关性,我们的贪心方法训练出的supernet有着更好的相关性。

我们对不同大小小验证集与完整验证集的相关性进行了评估(Figure 4 左图),同时对uniform-sampling算法在不同迭代轮数下的相关性作了评估(Figure 4 右图)。可以看出我们的算法在较小的验证集大小上仍能保持较高的相关性,在精度与效率的权衡下,我们最终选取 1000 作为小验证集大小。

2、对多路径贪心采样及候选池效果的评估

我们在MobileNetV2的search space下评估了多路径贪心采样及候选池的效果,如 Table 4 所示。

6

总结

超网络训练是单分支One-ShotNAS 方法的关键。与目前方法的对所有分支一视同仁不同,我们的方法贪心地注重于有潜力的好分支的训练。这种贪心地分支滤波可以通过我们提出的多分支采样策略被高效地实现。我们提出的 GreedyNAS 在准确率和训练效率上均展现出了显著的优势。

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
这6样东西没有保质期,过期了也没事,不要傻傻的扔掉了!

这6样东西没有保质期,过期了也没事,不要傻傻的扔掉了!

三农老历
2026-03-11 12:14:32
科尔两决定葬送大好局面,与追梦赛后相拥,勇士真走远了

科尔两决定葬送大好局面,与追梦赛后相拥,勇士真走远了

大飞说篮球
2026-03-11 13:54:01
宋喆直播卖枣笑塌全网!百万流量零成交,满屏王宝强弹幕扎心到爆

宋喆直播卖枣笑塌全网!百万流量零成交,满屏王宝强弹幕扎心到爆

誮惜颜a
2026-01-13 01:12:10
网贷公司,遗老遗少大清洗

网贷公司,遗老遗少大清洗

巨潮WAVE
2026-03-10 13:59:52
泰山不可能归化克雷桑?德尔加多必须续约?依木兰现在不如陈泽仕

泰山不可能归化克雷桑?德尔加多必须续约?依木兰现在不如陈泽仕

林子说事
2026-03-11 12:55:12
国际油价3月10日暴跌 创下2022年以来单日最大跌幅

国际油价3月10日暴跌 创下2022年以来单日最大跌幅

闪电新闻
2026-03-11 11:38:34
美国完全没料到!伊朗大阿亚图拉全球追杀令,3亿教徒裁决特朗普

美国完全没料到!伊朗大阿亚图拉全球追杀令,3亿教徒裁决特朗普

好贤观史记
2026-03-07 16:38:35
沦为共享单车的女色虎

沦为共享单车的女色虎

深度报
2026-03-05 22:39:27
艾滋病新增130万!很多人中招很冤枉!在外“5不碰”一定要记死

艾滋病新增130万!很多人中招很冤枉!在外“5不碰”一定要记死

今朝牛马
2025-12-31 19:31:04
手机绝不可能取代传呼机!30年前的旧报纸新闻被扒,引发热议…

手机绝不可能取代传呼机!30年前的旧报纸新闻被扒,引发热议…

火山詩话
2026-02-24 06:14:44
湖人升西部第四!东里狂轰62+18+19三杀森林狼 詹姆斯激情庆祝

湖人升西部第四!东里狂轰62+18+19三杀森林狼 詹姆斯激情庆祝

追球者
2026-03-11 13:39:07
曝俄军半道遇袭造成五百人伤亡!瑟尔斯基透露春季反攻信号

曝俄军半道遇袭造成五百人伤亡!瑟尔斯基透露春季反攻信号

项鹏飞
2026-03-10 17:25:55
直播调整!中国女篮对阵马里情况有变宫鲁鸣表态张子宇世界杯首秀

直播调整!中国女篮对阵马里情况有变宫鲁鸣表态张子宇世界杯首秀

曹说体育
2026-03-11 11:09:41
侃爷夫妇:一个不穿鞋卖鞋,一个敢穿到出圈,画风绝了

侃爷夫妇:一个不穿鞋卖鞋,一个敢穿到出圈,画风绝了

述家娱记
2026-02-23 21:23:16
2名中国女留学生在澳登山不幸遇难!警方:带够防寒衣物却没穿,均死于失温

2名中国女留学生在澳登山不幸遇难!警方:带够防寒衣物却没穿,均死于失温

澳洲红领巾
2026-03-10 13:38:46
伊朗发生大事,新领袖遇袭受伤?美防长喊话俄罗斯:不要参与其中

伊朗发生大事,新领袖遇袭受伤?美防长喊话俄罗斯:不要参与其中

柏拉图的诉说1
2026-03-11 12:59:11
汾酒集团回应多名硕士拟录用为酿酒工:确为一线岗 劳动强度不小 上升空间大

汾酒集团回应多名硕士拟录用为酿酒工:确为一线岗 劳动强度不小 上升空间大

快科技
2026-03-11 07:58:25
跟男朋友回家见家长,他爸妈给的见面红包里就一块钱,我果断分手

跟男朋友回家见家长,他爸妈给的见面红包里就一块钱,我果断分手

莎莉说情感
2026-03-11 13:35:07
小厂电脑被曝CPU造假,根源却是巨头的贪婪

小厂电脑被曝CPU造假,根源却是巨头的贪婪

三易生活
2026-03-09 19:47:38
“我老公家要绝后了,我娘家也要绝后了”,一广西网友发帖引共鸣

“我老公家要绝后了,我娘家也要绝后了”,一广西网友发帖引共鸣

火山詩话
2026-02-26 09:41:57
2026-03-11 15:19:00
AI科技评论 incentive-icons
AI科技评论
点评学术,服务AI
7111文章数 20739关注度
往期回顾 全部

科技要闻

腾讯急了急了,微信绝密AI智能体首度曝光

头条要闻

媒体:一百个不愿意打伊朗 万斯与特朗普矛盾显现无遗

头条要闻

媒体:一百个不愿意打伊朗 万斯与特朗普矛盾显现无遗

体育要闻

郭艾伦重伤,CBA下半赛季还能期待些什么

娱乐要闻

杨幂连续五年为刘诗诗庆生,刘诗诗回应

财经要闻

油价大转头?一天,从末日到曙光!

汽车要闻

丰田向左,本田向右

态度原创

游戏
家居
健康
房产
教育

《巧克力与香兰子》双端新作官宣 4月14日上线!

家居要闻

中式风格 人间朝与暮

转头就晕的耳石症,能开车上班吗?

房产要闻

信号!千亿巨头入局,三亚开启新一轮大征拆!

教育要闻

原料有区别,分辨很重要

无障碍浏览 进入关怀版