网易首页 > 网易号 > 正文 申请入驻

重新思考语义分割范式——SETR

0
分享至

本文介绍一篇由复旦大学、牛津大学、萨里大学、腾讯优图、Facebook研究者共同参与的工作:Rethinking Semantic Segmentation from a Sequence-to-Sequence Perspectivewith Transformers,该论文将Pure Transformer在自然图像的语义分割任务上进行了首 次尝试。

更多详情,请参看原文:

论文链接:

https://arxiv.org/abs/2012.15840

开源代码:

官方 & 第三方复现(Pytorch)

一、动机

自全卷积神经网络(FCN)提出以来,现有的语义分割框架大都是基于编码器-解码器(Encoder-Decoder)范式,其中:

  • 编码器用于压缩原始输入图像的空间分辨率,并逐步地提取更加高级的抽象语义特征;

  • 解码器则用于将编码器所提取到的高级特征上采样到原始输入分辨率,以进行像素级的预测。

上下文(context)信息是提升语义分割性能最关键的因素,而感受野(respect-field)则大致决定了网络能够利用到多少的信息。

通常,在编码器中,我们会在下采样的过程中逐层地降低空间分辨率,以减少计算资源的消耗,同时有效地扩大网络的感受野。如此一来,CNN中不仅由于卷积的参数共享使得网络具有平移等变性(translation equivalence),而且还因为引入池化操作在一定程度上为网络引入了平移不变性(translation invariant),使网络对目标位置不那么敏感,间接地增强了网络对未知数据的推理能力,同时又通过共享卷积核来达到控制模型的复杂度。

理论上,通过堆叠足够深的卷积层网络的感受野能够覆盖到输入图像的全局区域,然而:

  1. 相关研究表明,网络的实际感受野远小于其理论感受野;

  2. 考虑到参数量激增和计算量消耗与性能之间的平衡;

  3. 过多的下采样操作会导致小目标的细节信息被严重损失甚至完全丢失。

因此,由于网络中的有效感受野是有限的(limited),这将会严重制约模型的表示能力。

其实,对于语义分割乃至分类、检测等几大主流的视觉任务来说,近几年的工作大都是基于一个核心点出发,即如何在保证效率的同时尽可能地捕获有效的上下文信息。主流方法主要有两种——改造原始的卷积操作,或者在网络中引入注意力机制。

改造原始的卷积操作方式,主要是通过扩大感受野从而来捕获局部的上下文信息:

  • large kernel sizes,e.g., Inception block;

  • atrous/dialted convolution, e.g., DeepLab series;

  • image/feature pyramid, e.g., PSPNet;

  • deformable convolution;

  • ...

而注意力方法则更倾向于从不同维度建立长距离的依赖,从而来捕获全局的上下文信息:

  • channel attention, e.g., SENet;

  • spatial attention, e.g., DANet;

  • self-attention, e.g., NonLocalNet;

  • ...

作者认为,上述的方法均是基于FCN架构,均无法摆脱编码器需要对输入特征图进行降采样的操作。而我们知道,Transformer 的一个特性便是能够保持输入和输出的空间分辨率不变,同时还能够有效地捕获全局的上下文信息。

因此,作者这里便采用了类似ViT的结构来进行特征提取,同时结合Decoder来恢复分辨率。在一定程度上可以避免审稿人质问:

  1. Transformer和其它的自注意力的方法有啥区别?

  2. 利用Transformer进行特征提取相比于CNN有何优势?

——写论文就是要会讲故事,让reviewer挑不出你的毛病。

当然,这只是其中一关,除了故事本身的逻辑性,实验设置得是否合理充分也是个可以挑刺的地方。

除此之外,我们知道TF的一个显著缺陷便是对计算和存储的要求特别高,如果没有进行底层优化,很难在GPU端飞起来。作者也是很巧妙,避开刷精度的路子,题目起了个"Rethinking",意在告诉审稿人我这只是一种尝试,我告诉后来人这条路走得通,可以往这走,至于效率优化方面就留点工作给别人,你也不要死揪着我这点不放。

如果TF在分割这条路能一直火下去的话,ViT、DETR和SETR这三篇文章的引用量估计会获得爆发式的增长。关于TF的底层GPU优化,可以参考快手异构团队的工作。

为了避免给审稿人造成一种「这就是一篇“ViT+Decoder”堆积木文章」的错觉,作者还特地在引言末尾强调——话虽如此,但:

However, extending a pure transformer from image classification to a spatial location sensitive tasks of semantic segmentation is non-trivial.

我还是挺认同作者这句话的。因此,笔者在此之前基于Pytorch框架随手复现了这个结构,基于ViT进行特征提取,然后把中间层间隔抽出来并结合Decoder进行输出,在利用多卡训练的过程中,发现性能只不过跟UNet差不多,但是效率方面,就会出现学习率稍微大点loss就nan等问题。本以为能一飞冲天,结果没两个epoch一言不合就给你搞到自闭。

当然,笔者也不是专门在研究这个,只是跑着玩玩,没去了解过这方面的训练技巧和一些注意事项,可能我实现的姿势不对,说不定这家伙很好train呢?

继续往下读读,看看有没有惊喜,毕竟作者在ADE20K这个数据集上过榜首,至少说明是能work的吧。


二、相关工作

这部分主要介绍了语义分割和Transformer这两大板块的内容。最后着重分析了与Axial-DeepLab的不同之处:

  • Axial有对输入图像进行下采样,而SETR则全程利用序列到序列的模式并没有降低分辨率;

  • Axial采用了专门的设计的轴向注意力(见下),这对于标准计算设备来说可扩展性差,而SETR则始终坚持使用纯正的TF模块,可以简化易用性。

说实话,这里给出的区别点有点牵强,不明白作者为何要在这里特别强调这个,可能是审稿人提出要跟Axial有区别吧?要不然这处贸然对比的意义并不大。

Axial-DeepLab是发表于ECCV 2020的一篇spotlight文章《Axial-DeepLab: Stand-Alone Axial-Attention for Panoptic Segmentation》,其核心思想是利用轴向注意力,即通过将2D的自注意力分解为两个1D的自注意力来消除卷积操作种局部感受野的限制,在降低计算复杂度的同时建立远距离的依赖,捕获全局的上下文信息。

除此之外,作者还提出了一个对位置敏感的自注意力设计,两者共同结合开发出一个position-sensitive axial-attention layer。可能不仔细看还以为是CCNet的翻版,这操作明显跟CCNet很类似啊,作者并没比较,而是往Non-Local方向上去进行横向比较了。

三、方法

SETR主要由三部分组成:输入→转换→输出。

Schematic illustration of the proposed SEgmentation TRansformer (SETR) 。

(a)输入预处理及特征提取;(b)渐进式上采样;(c)多层级特征聚合。


1. Image to sequence

首先,需要将原始的输入图片处理成Transformer能够支持的格式,这里作者参考了ViT的做法,即对输入图像进行切片处理,将每一个2D的图像切片(patch)视为一个“1D”的序列作为整体输入到网络当中。通常来说,Transformer接收的输入是一个1维的特征嵌入序列 ,其中 为序列的长度, 为隐藏层的通道尺寸。因此,对于图像序列而言,我们也需要将输入 转换为 。

一种最直接的做法便是将输入展平为一个列向量,这样暴力的做法无疑会造成计算量的爆炸。因此,作者这里采用切片的方式,每个切片大小为16×16,那么对于一张256×256大小的图片来说就可以切成256块( )。为了对每个切片的空间信息进行编码,可以为每个局部位置 都学习一个特定的嵌入 ,并将其添加到一个线性的投影函数 中来形成最终的输入序列 。如此一来,进行Transofomer是无序的,我们也仍然可以保留相对应的空间位置信息,因为我们对原始的位置信息进行了关联。

2. Transformer

通过将序列输入到Transformer架构可进行特征的提取,其主要包含两个部分Multi-head Self-Attention (MSA) 和 Multilayer Perceptron (MLP) blocks。具体的内容这里不赘言,自注意力核心就是QKV操作,而多头只不过是将它分组进行计算而已,稍微看下应该挺好理解的。

这里linear projection layers一般是指全连接层,用于改变通道维度。

标准的Transformer结构

关于Transformer家族,可参考下图:

3. Decoder

关于解码器,作者这里给出了三种结构。值得注意的是,经过TF所提取出的特征其输入和输出的维度是一致的,为了进行最终的像素级分割,我们需要将其reshape成原始的空间分辨率。

Naive upsampling:第一种上采样方法比较朴素,作者这里给出的是利用一个2层的网络,即“1×1卷积+sync BN+ReLU+1×1卷积”,然后直接双线性上采样回原图分辨率。

Progressive UPsampling:第二种方式是采用渐进式上采样。为了避免引入过度的噪声,同时避免adversarial的影响(其实就是边缘会出现锯齿状),作者避免一步上采样,而是逐步地2倍上采样回去,类似于U-Net的操作。

Multi-Level feature Aggregation:第三种上采样方式是采用基于金字塔特征融合策略的多层级特征聚合。当然,这里并非严格的金字塔融合,毕竟TF每一层的输出特征图分辨率都是相同的。具体地,每隔6层抽取一个输出特征,将其reshape成 ,然后分别经过一个3层(1×1+3×3+3×3)的网络,其中第1层和第3层的特征图通道数将为原始的一半,即输出维度是 ,随后对其进行4倍的双线性上采样操作,因此输出维度为 。为了增强不同层特征之间的交互,采用了自顶向下逐层融合(element-wise addtion)的策略,同时在每一层的融合后面外接一个3×3的卷积操作。最后,再将顶层特征图以及三层融合后的输出层特征分别按通道维度进行拼接级联,然后直接4倍双线性上采样回去,最终的输出维度为 ,这里还需要接个根据类别数进行转换输出。

四、实验

1. 数据集

在Cityscapes[1]、ADE20K[2]以及PASCAL Context[3]这三个数据集上进行实验评估。

2. 实现细节

基于mmsegmentation框架里面默认的设置(如数据增强和训练策略):

  • 先以0.5或2的比例随机resize原图,然后随机裁剪成768、512和480分别应用于上述三个数据集,紧接着执行随机的水平翻转;

  • 对于Cityscapes数据集,采用的batch size为8;而两外两个数据集ADE20K和PASCAL 则分别采用batch size为8和16的大小迭代训练160k和80k次;

  • 采用多项式的学习率衰减策略并基于SGD进行训练和优化,其中Momentum和Weight decay分别设置为0.9和0;

  • 最后,对于上述三个数据集的初始学习率分别设置为0.01、0.001以及0.01。

3. 辅助损失

同PSPNet一样,作者在这里也引入了辅助损失。即监督不同的的层级输出:

  1. Naive upsampling——(Z10; Z15; Z20);

  2. Progressive UPsampling——(Z10; Z15; Z20; Z24);

  3. Multi-Level feature Aggregation——(Z6; Z12; Z18; Z24)。

在PSPNet中最终的损失是 ,这里没有说加权应该是全部直接相加然后计算了。这里采用的是一个2层的(3×3 conv + Synchronized BN + 1×1 conv)网络进行中间层的输出。

4. 多尺度测试

首先将输入图像缩放到一个统一的尺寸,然后执行多尺度的缩放以及随机的水平翻转,尺度缩放因子分别为(0.5,0.75,1.0,1.25,1.5,1.75),紧接着采用滑动窗口的方式进行重叠的切片预测,最后再合并测试结果。如果移动的步长不足以得到一张完整的切片,那么以短边为例保持同等的aspect ratio。其中,由于采用的是多卡的分布式训练,因此Synchronized BN也被用于解码器和辅助损失头的训练过程中。为了简化训练过程,作者这里并没采用在线困难样本挖掘(OHEM)[4]之类的trick用于模型的训练。

5. 基准模型

采用mmsegmentation中自带的dilated FCN和Semantic FPN。值得注意的是,考虑到计算的瓶颈,最终的FCN是8倍上采样回去,而本文所提出的SETF是进行16倍上采样。

6. SETR变体

SETR-Naive, SETR-PUP和SETR-MLA对应上述三种解码器。另外,对于编码器来说,采用的是M层的Transformer,这里根据M的大小划分为"T-Small"和"T-Large",分别对应12和24层。除非特别说明,本文默认采用的是24层的TF(这样一来就有3×2=6种组合)。

除此之外,作者还涉及了一种结合CNN+TF的混合模型,即采用ResNet-50作为预编码器用于初步的特征提取,然后将所提取特征喂入SETR进行进一步的特征提取。为了降低GPU的计算开销,这里ResNet-50将原始输入图像下采样16倍,同时采用SETR-Naive-S的组合。

7. 预训练

作者将ViT训练出来的权重用于SETR的编码器进行权重初始化。Emmm说白了就是把它照搬过来微调了下。值得注意,这里非常关键的一点是随机初始化和带ViT的预训练权重效果差别这么大:

8. 可视化

可以看出,在第1层的时候便可以捕获到全局的特征,越往后所提取到的特征越抽象。这足以证明Transformer建立长距离依赖的能力。

五、总结

总的来说,本文将Pure Transformer在自然图像的语义分割任务上进行了首次尝试,整体来说取得的效果是相当不错的。但也有人质疑其创新点不足或者没有放出参数量计算量等,亦或是没跟基于自注意力的方法如CC-Net和EMA-Net等比较。

不过,我个人的观点是:论文本身可以分为两种,一种是精度型,一种是探索型。大家质疑的原因就是将其归纳为前者,当然这里与作者反复强调在ADE-20k数据集上取得一些成绩也有关,很容易把节奏带进去。为了弥补,作者在题目又强调时Rethinking,即本文只是尝试可以这样做。且不论这个创新性有多强,这其实更应该被当成一篇实验性论文,告诉大家这条路可以走得通。

其实,当看到这篇文章的时候,我最关注的地方并不是整体的结构,而是作者是如何将其训练到work的?毕竟这种结构我想绝大多数人都试到吐了,通过整篇文章读下来,才发现要训好这个网络步骤原来这么繁琐,难道笔者基于同样的结构训练一轮下来被直接摁在地下摩擦。

最后,很好奇SETF是基于什么样的硬件设施下进行实验的?

ref:

[1] The cityscapes dataset for semantic urban scene understanding.

[2] Semantic understanding of scenes through the ade20k dataset.

[3] The role of context for object detection and semantic segmentation in the wild.

[4] Ocnet: Object context network for scene parsing

From: Smarter; 作者:湃森

Illustrastion by Oleg Shcherba

-The End-

将门是一家以专注于发掘、加速及投资技术驱动型创业公司的新型创投机构,旗下涵盖将门创新服务将门技术社群以及将门创投基金

将门成立于2015年底,创始团队由微软创投在中国的创始团队原班人马构建而成,曾为微软优选和深度孵化了126家创新的技术型创业公司。

如果您是技术领域的初创企业,不仅想获得投资,还希望获得一系列持续性、有价值的投后服务,欢迎发送或者推荐项目给我“门”:

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
大瓜!网友爆料副院长和女医生私情,视频画面流出,女方十分主动

大瓜!网友爆料副院长和女医生私情,视频画面流出,女方十分主动

派大星纪录片
2025-11-06 11:07:07
“询问其他交易记录,还报警处置”?律师称在银行取钱被追问“资金用途”;银行、反诈中心都说是对方要求

“询问其他交易记录,还报警处置”?律师称在银行取钱被追问“资金用途”;银行、反诈中心都说是对方要求

大风新闻
2025-11-06 15:16:03
美开启太子集团退款页面 全球受害者都可以在线提交信息 申请退款

美开启太子集团退款页面 全球受害者都可以在线提交信息 申请退款

跟着老李看世界
2025-11-06 07:13:28
专家最新回应“康熙生父为洪承畴”:采样过雍正第五子和恭亲王弘昼后代,DNA证实其努尔哈赤支系

专家最新回应“康熙生父为洪承畴”:采样过雍正第五子和恭亲王弘昼后代,DNA证实其努尔哈赤支系

扬子晚报
2025-11-06 12:13:35
让中国光刻机“变成废铁”,日本对华下狠手,外媒:比美国人还绝

让中国光刻机“变成废铁”,日本对华下狠手,外媒:比美国人还绝

博览历史
2025-11-06 20:35:03
女子引产被拒诞下女婴遭当班医生违规抱养,香格里拉民生医院被罚

女子引产被拒诞下女婴遭当班医生违规抱养,香格里拉民生医院被罚

澎湃新闻
2025-11-06 20:18:31
开撕了!白百何发文自曝被《春树》集体孤立,王传君老板发声反击

开撕了!白百何发文自曝被《春树》集体孤立,王传君老板发声反击

萌神木木
2025-11-06 19:09:40
沈伯洋被吓傻了,啥事都没心情做,只关心自己今后怎么办,崩溃了

沈伯洋被吓傻了,啥事都没心情做,只关心自己今后怎么办,崩溃了

趣文说娱
2025-11-06 18:20:13
副院长出轨眼科主任?官方回应

副院长出轨眼科主任?官方回应

中国新闻周刊
2025-11-06 11:49:02
全球都在看中国将如何救援航天员! 俄罗斯和美国9个月, 中国多久

全球都在看中国将如何救援航天员! 俄罗斯和美国9个月, 中国多久

梁讯
2025-11-06 10:09:04
四十万劳力士快递途中不翼而飞 警方已介入调查|封面头条

四十万劳力士快递途中不翼而飞 警方已介入调查|封面头条

封面新闻
2025-11-06 16:49:11
商务部:中国加入CPTPP将为各成员区域合作乃至全球带来经济红利

商务部:中国加入CPTPP将为各成员区域合作乃至全球带来经济红利

第一财经资讯
2025-11-06 16:32:10
“大鱼”游走了,泽连斯基在巴甫洛夫格勒的地堡里,见证了红军城的陷落!

“大鱼”游走了,泽连斯基在巴甫洛夫格勒的地堡里,见证了红军城的陷落!

胜研集
2025-11-06 10:42:31
美荷两国同时发声,对中国独立研发的光刻机技术给予了强烈批评

美荷两国同时发声,对中国独立研发的光刻机技术给予了强烈批评

来科点谱
2025-11-06 13:33:42
广东人注意:接到这个电话,别挂!

广东人注意:接到这个电话,别挂!

南粤女声
2025-11-05 12:00:26
湖南省卫健委通报“省人民医院祖某某、曾某生活作风问题”:情况属实

湖南省卫健委通报“省人民医院祖某某、曾某生活作风问题”:情况属实

新京报
2025-11-06 16:16:07
封杀四年,49岁赵薇突传消息,因胃癌去世传闻5个月前就真相大白

封杀四年,49岁赵薇突传消息,因胃癌去世传闻5个月前就真相大白

书雁飞史oh
2025-11-06 19:05:31
吴京深夜发文生无可恋,遭网友抵制并嘲讽,咋回事?

吴京深夜发文生无可恋,遭网友抵制并嘲讽,咋回事?

眼光很亮
2025-11-06 10:15:22
痛心!失联多日的17岁女生已去世,遗体在桥下找到

痛心!失联多日的17岁女生已去世,遗体在桥下找到

南国今报
2025-11-06 13:35:37
副院长出轨眼科主任后续!大尺度视频曝光,两人已停职,医院回应

副院长出轨眼科主任后续!大尺度视频曝光,两人已停职,医院回应

180视角
2025-11-06 15:57:32
2025-11-07 02:47:00
将门创投 incentive-icons
将门创投
加速及投资技术驱动型初创企业
2251文章数 596关注度
往期回顾 全部

科技要闻

小鹏机器人里藏真人?何小鹏发一镜到底视频

头条要闻

美演练对俄核打击:导弹仅需六七分钟即可飞抵俄罗斯

头条要闻

美演练对俄核打击:导弹仅需六七分钟即可飞抵俄罗斯

体育要闻

送走两位全明星,公牛成了东部第一

娱乐要闻

“黑料缠身”的白百何 谁给她的勇气?

财经要闻

南银法巴加速发展背后:资金饥渴症待解

汽车要闻

是我眼花了么?怎么大猩猩都来参加新车发布了?

态度原创

数码
时尚
教育
家居
军事航空

数码要闻

苹果Apple TV全新开场动画幕后:相机结合玻璃Logo实拍

大衣别这么穿,显黑又显胖!

教育要闻

英国就业寒冬来了!

家居要闻

别样府院 畅享诗意生活

军事要闻

美国发射洲际弹道导弹 俄方回应

无障碍浏览 进入关怀版