ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

【CVPR2022】Lite Vision Transformer with Enhanced Self-Attention

2022-05-02 01:31:06  阅读:215  来源: 互联网

标签:Transformer RASA 卷积 Self Attention CSA hw


请添加图片描述

论文:https://readpaper.com/paper/633541619879256064

代码:https://github.com/Chenglin-Yang/LVT

1、研究动机

尽管ViT模型在各种视觉任务中效果显著,但是目前轻量级的ViT模型在局部区域效果不理想,作者认为:自注意力机制在浅层网络有局限性(Self-attention mechanism is limited in shallower and thinner networks)。为此,作者提出一种 light yet effective vision transformer 可以应用于移动设备(Lite Vision Transformer, LVT),具有标准的 four-stage 结构,但是和 MobileNetV2 和 PVTv2-B0 含有相同的参数量。 作者主要提出了两种新的 attention 模块:Convolutional Self-Attention (CSA) 和 Recursive Atrous Self-Attention (RASA) 。下面分别介绍 CSA 模块和 RASA 模块。

请添加图片描述

2、Convolutional Self-Attention (CSA)

流程如上图所示,基本流程是:

  • 计算similarity(即代码中的attn): 将 (hw/4, c) 的矩阵通过1x1卷积变为 (hw/4, k^2, k^2)。
  • 计算V: 生成一个(hw/4, c, k^2)的矩阵,然后reshape通过1x1的卷积改变通道数(图中为BMM),得到(hw/4, k^2, c_out)的矩阵。
  • 矩阵乘法,similarity 和 v 相乘,得到 (hw/4, k^2, c_out)
  • 使用 fold 变换得到输出

从代码上来看,CSA 的代码比 VOLO 更复杂,但本质上貌似没有不同(也许是我的理解还不到位)。而且,我感觉 CSA 的代码没有 VOLO 简洁。感兴趣的可以参考《VOLO: Vision Outlooker for Visual Recognition》这篇论文及网上代码。

3、Recursive Atrous Self-Attention (RASA)

首先介绍 ASA,与普通的attention计算不同的地方在于:作者在计算Q时,采用了多尺度空洞卷积。卷积权重共享,降低了参数。

同时,作者使用了 recursive 操作。每个block里,ASA 迭代两次。

4、实验分析

网络采用了4阶段的架构。第一阶段使用CSA,其他阶段使用RASA。

在 ImageNet 的实验结果表明,当参数量与 MobileNetV2 和 PVTv2-B0 相当时,本方法准确率显著较高。同时,增大到与ResNet50参数量接近时,本方法性能显著超越了当前方法。

其它部分可以参考作者论文,这里不再多说。

标签:Transformer,RASA,卷积,Self,Attention,CSA,hw
来源: https://www.cnblogs.com/gaopursuit/p/16214911.html

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有