网易首页 > 网易号 > 正文 申请入驻

豪取4个SOTA,谷歌魔改Transformer登NeurIPS 2021!一层8个token比1024个还好用

0
分享至

新智元报道

编辑:小咸鱼 好困

【新智元导读】谷歌改造Vision Transformer的新作被NeurIPS 2021收录了。在这篇文章里,谷歌提出了TokenLearner方法,Vision Transformer用上它最多可以降低8倍计算量,而分类性能反而更强!

目前,Transformer模型在计算机视觉任务(包括目标检测和视频分类等任务)中获得了最先进的结果。

不同于逐像素处理图像的标准卷积方法,Vision Transformer(ViT)将图像视为一系列patch token(即由多个像素组成的较小部分图像)。

这也就意味着在每一层神经网络中,ViT模型使用多头自注意力(multi-head self-attention),基于每对token之间的关系来处理patch token。

这样,ViT模型就能够构建整个图像的全局表示。

在输入端,将图像均匀地分割成多个部分来形成token,例如,将512×512像素的图像分割成16×16像素的patch token。在中间层,上一层的输出成为下一层的token。

这里插一句。如果处理的是视频,则视频「管道」如16x16x2视频片段(2帧16x16图像)就成为了token。视觉token的质量和数量决定了Vision Transformer的整体性能。

许多Vision Transformer结构面临的主要挑战是,它们通常需要太多的token才能获得合理的结果。

例如,即使使用16x16patch token化,单个512x512图像也对应于1024个token。对于具有多个帧的视频,每一层可能都需要处理数万个token。

考虑到Transformer的计算量随着token数量的增加而二次方增加,这通常会使Transformer难以处理更大的图像和更长的视频。

这就引出了一个问题:真的有必要在每一层处理那么多token吗?

谷歌在「TokenLearner:What Can 8 Learned Tokens Do for Images and Videos?」中提到了「自适应」这个概念。这篇文章将在NeurIPS 2021上进行展示。

论文地址: https://arxiv.org/pdf/2106.11297.pdf

项目地址: https://github.com/google-research/scenic/tree/main/scenic/projects/token_learner

实验表明,TokenLearner可以自适应地生成更少数量的token,而不是总是依赖于由图像均匀分配形成的token,这样一来,可以使Vision Transformer运行得更快,性能更好。

TokenLearner是一个可学习的模块,它会获取图像张量(即输入)并生成一小组token。该模块可以放置在Vision Transformer模型中的不同位置,显著减少了所有后续层中要处理的token数量。

实验表明,使用TokenLearner可以节省一半或更多的内存和计算量,而分类性能却并不会下降,并且由于其适应输入的能力,它甚至可以提高准确率。

TokenLearner是啥?

TokenLearner其实是一种简单的空间注意力方法。

为了让每个TokenLearner学习到有用的信息,先得计算一个突出的重要区域的空间注意力图(使用卷积层或MLP)。

接着,这样的空间注意力图会被用来对输入的每个区域进行加权(目的是丢弃不必要的区域),并且结果经过空间池化后,就可以生成最终的学习好了的token。

应用于单个图像的TokenLearner模块的直观图示

TokenLearner学习在张量像素的子集上进行空间处理,并生成一组适应输入的token向量。

这种操作被并行重复多次,就可以从原始的输入中生成n个(10个左右)token。

换句话说,TokenLearner也可以被视为基于权重值来执行像素的选择,随后进行全局平均。

值得一提的是,计算注意力图的函数由不同的可学习参数控制,并以端到端的方式进行训练。这样也就使得注意力函数可以在捕捉不同输入中的空间信息时进行优化。

在实践中,模型将学习多个空间注意力函数,并将其应用于输入,并平行地产生不同的token向量。

TokenLearner学习模块为每个输出标记生成一个空间注意力图,并使用它来抽象化输入的token

因此,TokenLearner使模型能够处理与特定识别任务相关的少量token,而不是处理固定的、统一的token化输入。

也就是说,TokenLearner启用了自适应token,以便可以根据输入动态选择token,这一做法有效地减少了token的总数,大大减少了Transformer网络的计算。

而这些动态自适应生成的token也可用于标准的Transformer架构,如图像领域的ViT和视频领域的ViViT(Video Vision Transformer)。

TokenLearner放在哪?

构建TokenLearner模块后,下一步就必须要确定将其放置在哪个位置。

首先,研究人员尝试将它放置在标准ViT架构中的不同位置,输入图像使用224x224的大小。

TokenLearner生成的token数量为8个和16个,远远少于标准ViT使用的196个或576个token。

下图显示了在ViT B/16中的不同相对位置插入TokenLearner的模型的ImageNet 5-shot分类精度和FLOPs,其中ViT B/16是一个基础模型,有12个注意力层。其运行时使用16x16大小的patch token。

在JFT 300M的预训练下,ImageNet的5-shot精度与ViT B/16中TokenLearner的相对位置有关

位置0意味着TokenLearner被置于任何Transformer层之前。其中,baseline是标准的ViT B/16的ImageNet 5-shot精度分类和FLOPs。

计算量以数十亿次浮点运算(GFLOPS)衡量

我们发现,在网络的最初四分之一处(1/4处)插入TokenLearner,实现了与基线几乎相同的准确性,同时将计算量减少到基线的三分之一以下。

此外,将TokenLearner放在后面一层(网络的3/4之后),与不使用TokenLearner相比,取得了更好的性能,同时由于其适应性,性能更快。

由于TokenLearner前后的token数量相差很大(例如,前196个,后8个),TokenLearner模块后的相对计算量几乎可以忽略不计。

TokenLearner VS ViT

将带有TokenLearner的ViT模型和普通的ViT模型进行对比,同时在ImageNet的few-shot上采用相同的设置。

TokenLearner会被放置在每个ViT模型中间的不同位置,如网络的1/2和3/4处。其中,模型通过JFT 300M进行预训练。

从图上观察可以得知,TokenLearner模型在准确率和计算量方面的表现都比ViT要好。

不同版本的ViT模型在ImageNet分类上的表现

在更大的ViT模型中插入TokenLearner,如具有24个注意力层,并以10x10(或8x8)个patch作为初始token的L/10和L/8。

之后,将这两个模型与48层的ViT G/14模型进行比较。

可以看到,在表现和G/14模型相当的情况下,TokenLearner只需要非常少的参数和计算量。

左:大规模TokenLearner模型与ViT G/14在ImageNet数据集上的分类精度对比;右:参数量和FLOPS的对比

高性能视频模型

视频理解是计算机视觉的关键挑战之一,TokenLearner在多个视频分类数据集基准上取得了SOTA的性能。

其中,在Kinetics-400和Kinetics-600上的性能超过了以前的Transformer模型,在Charades和AViD上也超过了之前的CNN模型。

通过与视频视觉Transformer(Video Vision Transformer,ViViT)结合,TokenLearner会在每个时间段学习8(或16)个token。

左:视频分类任务;右图:不同模型的对比

随着时间的推移,当人物在场景中移动时,TokenLearner会注意到不同的空间位置变化从而进行token化。

TokenLearner的空间注意力图的可视化

结论

虽然Vision Transformer是计算机视觉领域的一个强大模型,但大量的token及庞大的计算量一直是将ViT应用于更大图像和更长视频的瓶颈。

本文中作者表明,保留如此大量的token并在整个层级上完全处理它们是没有必要的。

此外,作者还证明了通过学习一个基于输入图像自适应提取token的模块,可以在节省计算的同时获得更好的性能。

最后,多个公共数据集上的验证也表明了TokenLearner在视频表征学习任务中的表现十分优异。

参考资料:

https://ai.googleblog.com/2021/12/improving-vision-transformer-efficiency.html?m=1

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
无锡官方认定“独生女被骗婚骗财1.3亿”系谣言,其父:能正常联系女婿

无锡官方认定“独生女被骗婚骗财1.3亿”系谣言,其父:能正常联系女婿

极目新闻
2024-06-14 18:31:27
曝银行副行长出轨女员工,误将视频发到工作群,女方老公也在群里

曝银行副行长出轨女员工,误将视频发到工作群,女方老公也在群里

180°视角
2024-06-14 12:58:33
80后已婚银行女职员深情表白60后已婚副行长的瓜!

80后已婚银行女职员深情表白60后已婚副行长的瓜!

顾礼先生
2024-06-14 15:44:43
17岁中专女生数学竞赛全球12名!我试着做了这套题,给跪了...

17岁中专女生数学竞赛全球12名!我试着做了这套题,给跪了...

毕导
2024-06-14 17:15:49
黄一鸣女儿天资聪颖,1岁多就会喊“爸爸”,入豪门指日可待!

黄一鸣女儿天资聪颖,1岁多就会喊“爸爸”,入豪门指日可待!

古希腊掌管月桂的神
2024-06-14 17:33:30
媒体:曾表示不与共产党人共事的阿根廷总统将访华

媒体:曾表示不与共产党人共事的阿根廷总统将访华

俄罗斯卫星通讯社
2024-06-14 15:05:45
罗斯人开始抛弃卢布,乌克兰愈战愈勇

罗斯人开始抛弃卢布,乌克兰愈战愈勇

非虚构故事
2024-06-13 13:28:47
有哪些国家参加瑞士和平峰会呢?看完亚洲的名单,我不太淡定了!

有哪些国家参加瑞士和平峰会呢?看完亚洲的名单,我不太淡定了!

兴宝侃侃
2024-06-14 13:23:03
东北部分城市“取款需派出所同意”!银行已回应:需要同意!

东北部分城市“取款需派出所同意”!银行已回应:需要同意!

鲸落女孩
2024-06-14 11:23:46
拜登未料到,中国三大部门宣布,断供航天发动机、复合材料

拜登未料到,中国三大部门宣布,断供航天发动机、复合材料

嘿哥哥科技
2024-06-14 08:38:03
印尼空姐穿裤子引热议!网友:太酷了!看起来更舒服!

印尼空姐穿裤子引热议!网友:太酷了!看起来更舒服!

远荐
2024-06-13 11:45:27
与中国断交的国家清单!

与中国断交的国家清单!

华人星光
2024-06-14 16:31:26
失空门!阿代米单刀过掉颜骏凌,面对空门将球打偏

失空门!阿代米单刀过掉颜骏凌,面对空门将球打偏

直播吧
2024-06-14 20:28:38
央视曝光:有人用AI写造谣文案,最高一天生成7000篇,每天流量变现超1万元,南昌警方:行拘!

央视曝光:有人用AI写造谣文案,最高一天生成7000篇,每天流量变现超1万元,南昌警方:行拘!

东方网
2024-06-14 12:38:07
倒查30年,维维被追税8500万,信号清晰又强烈

倒查30年,维维被追税8500万,信号清晰又强烈

今纶财经
2024-06-14 13:05:53
网传重庆某银行已婚女员工身着旗袍表白副行长,结果发到工作群…

网传重庆某银行已婚女员工身着旗袍表白副行长,结果发到工作群…

火山诗话
2024-06-14 16:38:32
17岁中专女生闯进全球数学竞赛12强!天才学生遇不得志的老师,堪比奇迹

17岁中专女生闯进全球数学竞赛12强!天才学生遇不得志的老师,堪比奇迹

可达鸭面面观
2024-06-14 13:49:53
博主:印尼现在有200名荷兰籍印尼裔球员,可组成全荷兰印尼队

博主:印尼现在有200名荷兰籍印尼裔球员,可组成全荷兰印尼队

直播吧
2024-06-14 11:13:16
2000吨铜丢了?世界500强企业最新回应:涉及1.1亿元,影响不大

2000吨铜丢了?世界500强企业最新回应:涉及1.1亿元,影响不大

每日经济新闻
2024-06-14 11:58:13
俄核潜艇抵达古巴第二天,美核潜艇抵达古巴关塔那摩湾

俄核潜艇抵达古巴第二天,美核潜艇抵达古巴关塔那摩湾

澎湃新闻
2024-06-14 18:00:29
2024-06-14 20:54:44
新智元
新智元
AI产业主平台领航智能+时代
11146文章数 65536关注度
往期回顾 全部

科技要闻

马斯克重获信任 豪言特斯拉市值超10个苹果

头条要闻

姜萍初中老师:她考上四星级高中 但自己选择了中专

头条要闻

姜萍初中老师:她考上四星级高中 但自己选择了中专

体育要闻

我们为什么还爱欧洲杯?

娱乐要闻

江宏杰秀儿女刺青,不怕刺激福原爱?

财经要闻

“石油美元”协议走向终结 影响几何?

汽车要闻

提供100/240kW双电机版本车型 乐道L60实车曝光

态度原创

数码
本地
艺术
公开课
军事航空

数码要闻

山灵 MTW60 TWS 降噪耳机发布:13mm动圈、IPX4,首发价198元

本地新闻

粽情一夏|海河龙舟赛,竟然成了外国人的大party!

艺术要闻

穿越时空的艺术:《马可·波罗》AI沉浸影片探索人类文明

公开课

近视只是视力差?小心并发症

军事要闻

美国与乌克兰签署双边安全协议

无障碍浏览 进入关怀版