您可以捐助,支持我们的公益事业。

1元 10元 50元





认证码:  验证码,看不清楚?请点击刷新验证码 必填



  求知 文章 文库 Lib 视频 iPerson 课程 认证 咨询 工具 讲座 Model Center   Code  
会员   
   
 
     
   
 
 订阅
Swin Transformer全方位解读【ICCV2021马尔奖】
 
作者昵称:木盏
  4221  次浏览      15 次
2022-3-22
 
编辑推荐:
本文主要对 Swin Transformer进行了全方位解析。希望对您的学习有所帮助。
本文来自于CSDN,由火龙果软件Linda编辑、推荐。

前言

前言就是唠唠嗑,想看干货的可以直接看下一节。

今年ICCV的最佳论文还是给到了刷榜各大CV竞赛榜的模型Swin Transformer,研究团队来自MSRA。

自从ViT、DETR等尝试把language模型中的王炸transformer使用到视觉领域并得到还不错的验证效果后,研究者们一直在致力于“如何更好地将语言模型建模到视觉”这个问题。ViT直接把图片划分patch,用对待word的方式来对待每个patch,轻松将图片建模成sentence;而DETR则需要CNN辅助提取特征,而transformer只是当一个neck。后者更像是一个过渡模式,咱们本文不做过多讨论。

重点说下ViT的问题,首先ViT不适合作为通用模型的backbone,不擅长处理dense输出型(如目标检测、分割等)的视觉任务。ViT通过将图像划分成不相交的patch,通过编码每个patch然后计算两两patch之间的attention,来实现聚合信息。这样,应对更高清的图片时,划分的patch数会受计算资源掣肘。你可以这么想,4x4=16个patch,两两计算注意力,和100x100=10000个patch,两两计算注意力,计算复杂度完全不一样(指数级的差别)。假如用降采样的方法依旧保持少量的patch数,那就没使用到高分辨率带来的好处;假如把用更大的编码器来保持较少的patch数,那么transformer会慢慢往MLP的方向退化。于是,研究者们开始设想一种新的transformer结构,使之能更好地适应视觉任务。

Swin Transformer就是一种通用视觉任务的Backbone而存在的模型,以替代CNN。它做到了,而且outperform现有的CNN模型。这也是其获得Best Paper的主要原因。

将ST复现到我自己的数据集(四分类),效果如下:

稳步收敛,最终准确率达到81%左右。

 

总概

主体结构

Swin的主体结构主要由4个Basic Layer组成。每个Basic Layer都有Depths、NUM_HEADS两个主要参数,以此来区分各种量级的swin transformer(如swin tiny,swin base等)。

Depths代表这个Basic Layer由几个swin transformer block(以下简称“STB”)串联而成,如图1中虚线框中的数字’x2’,‘x2’,‘x6’等待。

NUM_HEADS代表这个Basic Layer中的STB的head数量(每个head就是一组独立的注意力计算机制,类似于CNN中的channel,不了解可戳《transformer详解》)。head数量越多,代表特征channel越多。

第一步,名词解答:Window、Patch、Token

这三个名词,我们可以用一个栗子来解答。假设输入图片的尺寸为224X224,先划分成多个大小为4x4像素的小片,每个小片之间没有交集。224/4=56,那么一共可以划分56x56个小片。每一个小片就叫一个patch,每一个patch将会被对待成一个token。所以patch=token。而一张图被划分为7x7个window,每个window之间也没有交集。那么每个window就会包含8x8个patch。这段计算整明白了,你就会了解window、patch和pixel的关系。

Patch Embedding

一张224x224的图片,被划分成56x56个patch,然后对每个patch(尺寸为4x4)进行编码得到96-d的embedding向量。

那么这一步的张量尺寸变换为:Bx224x224x3 -> Bx3136x96

这里的B表示batch size,而3136=56x56。

用白话描述:咱们每个图片被划分为3136个patch,每个patch又被编码成96维的向量。

这一步在代码上实现十分简单,就是一个Conv2D,把步长和kernel size都设置为patch的长度即可,可看:

nn.Conv2d(in_chans, embed_dim, kernel_size=patch_size, stride=patch_size)

这步以后再flatten一下,就可以把56x56x96变为3196x96。

输入到STB(swin transformer block)之前,对输入张量进行dropout,这里的dropout主要是为了进行数据增强,因为这一步会随机性让一些patch embedding的数值为0,详情可戳《pytorch中nn.Dropout的使用技巧》。

Patch Merging

先把STB当做一个黑盒模型,Patch Embedding就是处理STB输入,而Patch Merging就是处理STB的输出。Patch merging模块是整个Swin Transformer模型中唯一的降采样操作。张量通过STB模块的时候尺寸是不发生改变的。

Patch Merging就好比CNN中的Pooling操作,但是比Pooling操作复杂一些。我们看图1,56x56x96对应(H/4)x(W/4)xC。经过Patch Merging以后,变为(H/8)x(W/8)x2C,即28x28x192。

分辨率下降到了1/4,而token的维度扩充到了2倍。

这一步经过了以下操作:

上面操作有没有些熟悉,就是pixel shuffle(链接可戳)的反过程嘛。

这一操作,直接可以把56x56x96变成28x28x(4x96),再通过一个线性层变为28x28x(2x96)。线性层如下:

nn.Linear(4*dim, 2*dim, bias=False)

 

有疑问可留言交流~

Swin Transformer Block

重头戏来了,Swin transformer是在标准transformer上的一个改进。主要是用Shifted window来改进标准多头自注意力模块。

ST中使用的激活函数是《GELU》,使用的正则化方法是Layer Normalization(可戳《Layer Normalization》《常见的Normalization》进一步了解)

与标准transformer不同的就是紫色部分的两个框,分别是W-MSA和SW-MSA。

W-MSA表示,在window内部的Multi-Head Self-Attention,就是把window当做独立的全局来计算window中每个token两两注意力。

SW-MSA与W-MSA的一丢丢不一样,就是将window的覆盖范围偏移一下,原文设置为window的边长的一半。

W-MSA

全称为Window based Multi-head Self Attention。一张图平分为7x7个window,这些window互相都没有overlap。然后,每个window包含一定数量的token,直接对这些token计算window内部的自注意力。 以分而治之的方法,远远降低了标准transformer的计算复杂度。以第1层为例,7x7个window,每个window包含16x16个patch,相当于把标准transformer应用在window上,而不是全图上。不太了解标准transformer做法的可戳《令人心动的transformer》,文中介绍了QKV、Multi-Head self attention等原理。

那么,不同window之间的信息怎么聚合呢?这就要用到SW-MSA了。

SW-MSA

这里的shifted window相对于初始的划分有一个平移。这个平移距离刚好是单个window边长的一半。

图3

上图是一个2x2个window的例子,window通过对角线方向滑动后,中间那个window就获取到了上一层所有window的信息了。用这种Shifted Window技巧来聚合各个不相交window之间的信息被证明是在各种视觉任务中非常有效的。

SW-MSA在逻辑上很make sense,但在计算上需要颇费心机。我们看图3,当窗口滑动后,窗口数从2x2变到3x3,而且边缘的窗口也比正常窗口小。为了应对计算上的问题,作者提出了基于cyclic shift的batch computation。

这种做法可以保证window数量不变,也可以保证每个window中的token数量也一样多。然后,通过MSA中的mask来分开window中的子窗口,如那个黄色部分A小块。这样,就可以实现非常高效且省资源的计算。

上图示例的Cyclic Shifting方法,可以保持面向计算的window数量保持不变(还是2X2),在window内部通过attention mask来计算子window中的自注意力。

代码中通过2个torch.roll来实现。一个负责滑动过去,一个负责滑动回来,两者在结构中交替出现。

torch.roll的图片示例为:

详情可戳《torch.roll图片实验》

Some Tricks

共享key

上面说到ST在每个window内实施标准transformer,其实还有额外的trick,其中一个重要的节省内存的trick就是: Shared Key

在一个window内部,所有的patch共享一组Key。咱们可以看一下示意图:

在计算attention的时候,需要编码出每个token的QKV值,然后用公式:

而对于每一个patch都计算一个不同的K集合,是非常memory unfriendly的。如果使用共享Key值,就会大大节约内存。

在原文中描述如下:

This strategy is also efficient in regards to real-world latency: all query patches within a window share the same key set, which facilitates memory access in hardware.

相对位置编码

论文中实验显示,采用相对位置编码比绝对位置编码有明显涨点。

咱们再看一眼ST中的自注意力计算公式:

其中B为位置编码参数。假设window是M × M M\times MM×M个patch大小,计算patch a相对于patch b的注意力时,我们可以考虑他们之间的相对位置。在考量相对位置编码方案时,我们需要具备这个思想:不同的相对位置关系有不同的相对位置编码。

在ST中,假设window大小为M × M M\times MM×M,则每个patch相对于另一个patch的位置差别取值范围是[ − M + 1 , M − 1 ] [-M+1, M-1][−M+1,M−1],那么值域的跨度为2 M − 1 2M-12M−1。先根据先验知识计算出一个相对位置编码矩阵,然后通过位置关系进行查表就可以得到当前的B BB值。

总结

ST相比ViT而言,采用了基于window局部自注意力,在应对大分辨率图像或者应对dense型输出的视觉任务时,可以把输入切分出更多的window。假设每个window的含有的patch数一致,window内自注意力计算量就可以看做一个常数,全局的计算复杂度跟图片的大小 H × W H\times WH×W成线性关系。相比于ViT的全局自注意力计算,ST线性计算复杂度使之可以应对高分辨率输入以及dense型输出的视觉任务,也使得transformer作为general purpose backbone有了可能性。

 

   
4221 次浏览       15
相关文章

基于图卷积网络的图深度学习
自动驾驶中的3D目标检测
工业机器人控制系统架构介绍
项目实战:如何构建知识图谱
 
相关文档

5G人工智能物联网的典型应用
深度学习在自动驾驶中的应用
图神经网络在交叉学科领域的应用研究
无人机系统原理
相关课程

人工智能、机器学习&TensorFlow
机器人软件开发技术
人工智能,机器学习和深度学习
图像处理算法方法与实践

最新活动计划
MBSE(基于模型的系统工程)4-18[北京]
自然语言处理(NLP) 4-25[北京]
基于 UML 和EA进行分析设计 4-29[北京]
以用户为中心的软件界面设计 5-16[北京]
DoDAF规范、模型与实例 5-23[北京]
信息架构建模(基于UML+EA)5-29[北京]
 
 
最新文章
AIGC技术与应用全解析
详解知识图谱的构建全流程
大模型升级与设计之道
自动驾驶和辅助驾驶系统
ROS机器人操作系统底层原理
最新课程
人工智能,机器学习和深度学习
人工智能与机器学习应用实战
人工智能-图像处理和识别
人工智能、机器学习& TensorFlow+Keras框架实践
人工智能+Python+大数据
成功案例
某综合性科研机构 人工智能与机器学习应用
某银行 人工智能+Python+大数据
北京 人工智能、机器学习& TensorFlow框架实践
某领先数字地图提供商 Python数据分析与机器学习
中国移动 人工智能、机器学习和深度学习