Redian新闻
>
无自注意力照样高效!RIFormer开启无需token mixer的Transformer结构新篇章

无自注意力照样高效!RIFormer开启无需token mixer的Transformer结构新篇章

科技


©PaperWeekly 原创 · 作者 | 岳廷

研究方向 | 计算机视觉





引言


论文地址:
https://openaccess.thecvf.com/content/CVPR2023/papers/Wang_RIFormer_Keep_Your_Vision_Backbone_Effective_but_Removing_Token_Mixer_CVPR_2023_paper.pdf


问题:Vision Transformer 已取得长足进步,token mixer,其优秀的建模能力已在各种视觉任务中被广泛证明,典型的 token mixer 为自注意力机制,推理耗时长,计算代价大。直接去除会导致模型结构先验不完整,从而带来显著的准确性下降。本文探索如何去掉 token mixer,并以 poolformer 为基准,探索在保证精度的同时,直接去掉 token mixer 模块!

解决方案

1. 基于重参数化思想,研究没有 token mixer 的模型架构。

2. 通过改进的学习范式以突破简单无 token mixer 骨干的限制,并总结实验经验为 5 条优化策略!

利用所提出的优化策略,在保证原有精度情况下,速度提升至少 17%!!!




主要思想

从强大的教师模型(带有 token mixer)进行定制化蒸馏知识到学生模型(无token mixer)。使用重参数化思想来扩大学生网络的建模能力但保持其高效性,如图 2。简单的仿射变换被引入到学生模型中,用来替换训练时的 token mixer。仿射变换的参数可以在推理过程中合并入 LayerNorm [2] 中,最终实现学生模型无需 token mixer 。




动机

3.1 token mixer 耗时分析

token mixer 效果好,运行效率低,模型定量分析中,单 token mixer 模块可以增加高达 1433.6ms 的延迟,占骨干网络的 46.3%。因此,非常有必要针对 token mixer 模块进行改进。但以 poolformer 进行实验,直接去掉会有较大性能丢失:

上图对比 poolformer 以及将 poolformer 中的池化操作替换成 identity 操作的结果,可以看到,直接替换会带来性能的效果显著下降。



五大改进思路

  1. 不使用 ground-truth label进行进行直接监督,直接使用纯 soft label 进行监督更有效
  2. 重参数化仿射变换+原始蒸馏替换 token mixer,无法保持原有 token mixer 性能。
  3. 使用分块知识蒸馏(即 module imitation),可提升仿射变换操作建模能力。
  4. 大感受野老师模型有利于改进感受野有限的学生模型。
  5. 将老师模型(除 token mixer 外)的预训练权重加载到学生模型可改善收敛性和性能

思路1:直接对无token mixer学生模型进行软蒸馏更有效。

大多数 KD 方法是为带有 token mixer 的模型设计。DeiT 中的一些实验结果表明,使用硬标签而不是软标签作为监督目标,可以显着改善 transformer 性能。但无 token mixer 结构没有 patch 聚合模块,其蒸馏方式应该不同。

为证明这点,表 2 比较了四种不同设置的模型性能。默认的教师是 GFNet-H-B [31](5400 万参数)。使用真实标签进行硬蒸馏将准确性从 72.31% 提高到73.51%。这表明带有 token mixer 的教师对没有 token mixer 的学生具有积极影响。但如果只软蒸馏而不使用真实标签的组合表现最好,将网络性能提高到 74.05%。

总结 1:对没有 token mixer 的简化模型来说,使用真实标签进行监督学习不是最合适的方式。带有 token mixer 的教师可以帮助指导训练,但仍无法完全弥补去除 token mixer 所带来的性能差距,需要其他策略来解决。
思路2:直接使用重参数化仿射变换+一般蒸馏,无法避免性能下降。

采用结构重参数化的仿射变换+一般知识蒸馏方法,性能一样会下降,表 2 表 3 证明了这一点。

重参数化的仿射变换,具体而言,直接使用仿射变换操作替换 token mixer,仿射变换操作在训练时作为一个单独的层,在推理时融合到 layer norm 中。

表 2 直接使用 identity 层替换 token mixer,并使用各种训练方案进行训练,包括使用原始 label,hard label 以及 soft label 进行各种组合进行训练 。作为对比表 3 使用仿射变换层替换 token mixer,同样使用原始 label,hard label 以及 soft label 进行各种组合进行训练。从表 2 表 3 结果可以看到,区别不大,这说明,直接使用仿射变换+一般知识蒸馏,无法发挥仿射变换的性能,也无法实现替换 token mixer 的目的。

另外,师生模型的同构设计启发探索每层模块的知识转移的合适方法,也就是思路 3。

思路3:进行 block-wise 知识蒸馏,即模拟模块技巧(module imitation),有助于利用仿射算子的建模能力。更具体的,文章预训练了一个 PoolFormer-S12 网络作为蒸馏教师网络,并在学生网络中只使用简单的仿射变换来模拟 token mixer。如图三所示:

table1 中原始 poolformer 精度为 75.01,但是去掉 token mixer 后,精度下降到 72.31,但使用仿射变换替代 token mixer,通过 block wise 蒸馏,可以看到精度不但没有下降还上升 0.1 个百分点,而仿射变换在推理时合并到 LN 层,完全等价于 table1 中的 identity 操作。通过这种操作,实现在完全去除 token mixer 时没有精度下降甚至还有提升

具体操作细节见上图,在 transformer 模块的输出,以及中间层,还有最终输出进行蒸馏。对应总的损失函数为:

其中第一项为前面提到的 soft 蒸馏,第二项为图 3 中对 transformer 模块的输出层进行蒸馏,第三项为对 transformer 模块的中间层进行监督,最后一项同样为对输出层进行监督,只不过使用关系矩阵(relation metrices)进行监督。

table 4 中列的参数,Feat 代表对上面损失函数 2,3 项进行监督的 epoch 数,Rel列为对损失函数最后一项进行监督的 epoch 数据,Layer 代表使用的中间层个数。
思路4:具有大感受野的教师有利于提高有限感受野的学生能力
表 5 比较不同教师架构下的学生性能。虽然 GFNet-H-B [31] 不属于表现最高的教师,但它仍然可以作为一个更好的选择,不管是否使用 module imitation 技巧。

结论 4。归因于教师和学生之间的感受野差异。偏差可以通过蒸馏从一个模型转移到另一个模型。具有大接受域的模型(如 GFNet 在频域中具有可学习的全局过滤器)可以为学生 RIFormer 提供更好的教学,后者感受野有限。
思路5:加载老师模型的预先训练权重(除了 token mixer)到学生模型中,可改进收敛和性能。

由于文章的目标仅是去除 token mixer,其余部分的参数仍保留且在以往过程中没有得到足够重视。文章观察到,初始化 RIFormer(除了仿射操作)的参数时使用对应的老师网络参数,性能得以从 75.13% 改善至 75.36%。这促使文章找到最终训练 RIFormer 的范式。

总括而言,到目前为止,文章已经完成了探索并发现了一个合适的范式来训练 RIFormer。它在宏观设计上与 MetaFormer [46] 大致相同,但不需要任何 token mixer。用所提出的优化方法配备 RIFormer,可以超过带有 token mixer 的复杂模型,对 ImageNet-1K 分类任务而言。



实验结果


5.1 实验设置
在 ImageNet-1K 数据集上,采用 [46] 中提出的训练方案,同时遵循第 4 节中的指南。数据增强包含 MixUp [50]、CutMix [48]、CutOut [52] 和 RandAugment [7]。文章的目的是去除 token mixer 的模型压缩工作,弥补去除 token mixer 导致的性能下降绝对是文章的首要任务,而非提出一个强有力的基线模型。因此使用 600 个延长的训练轮次。同时还对预训练模型进行 30 个 Epoch 的微调,输入分辨率为 384*384。
5.2 主要结果

表 6 展示了 RIFormer 在 ImageNet 分类上的结果。文章主要关注吞吐量指标,因为首要考量是满足边缘设备的延迟要求。如预期所示,比其他类型的骨干拥有明显的速度优势,因为 RIFormer 其构建块不包含任何 token mixer。

令人惊奇的是,使用文章的训练方法,RIFormer 成功地去除了所有 token mixer 而不影响性能。例如,RIFormer-M36 可以在分辨率为 224224 的条件下每秒处理 1185 张图像以上,top-1 准确率达到 82.6%。与此相比,最新基线 PoolFormer-M36 [46] 带有 Pooling token mixer,每秒可以处理 1009 张相同尺寸的图像但更差的 82.1% 的准确率。

文章还与一个高效的骨干 GFNet [31] 进行了比较。它通过全局滤波器进行 token 混合,总的计算复杂度为 O(NlogN)。GFNet-H-B 的吞吐量为 939,top-1 准确率为 82.9%,而文章的 RIFormer-M48 可以达到类似的 82.8% 的准确率与吞吐量 897 持平。与此同时,推理时 RIFormer 主要由 11 conv following LN 组成,没有复杂的 2D FFT 或注意力,更适合硬件专用化。

值得注意的是,没有 token mixer,RIFormer 甚至不能在其构建块中进行基本的 token 混合操作。然而,ImageNet 的实验表明,使用所提出的训练范式,RIFormer 仍然表现出令人期待的结果。文章认为是优化策略起着关键作用。



消融实验

module imitation 的有效性,作为额外仿射算子学习适当权重的重要方法,模组模仿是基于蒸馏的。因此,文章将其与隐藏状态特征蒸馏方法(带有关系)进行比较。采用第 4.2 节的范式,软蒸馏而不考虑交叉熵损失,文章得到表 7 中的结果。使用特征蒸馏,准确率比模组模仿低 0.46%,说明模组模仿正向影响额外权重的优化。
不同加速策略的比较。接下来,文章讨论拆除 token 是否优于其他稀疏化策略。基于 PoolFormer [46] 基线,文章首先构建了一个更薄的 PoolFormer-S9 和 PoolFormer-XS12,分别通过减少深度到 9 和保持其宽度(即嵌入维度)大约为原来的 5/6,以获得与文章的 RIFormer-S12 相当的推理速度。文章也跟随第 4.2 节的软蒸馏范式。表 8 显示结果。直接减少深度或宽度无法比文章无需延迟高昂的 token mixer 更好。

总结来说,本文方法带来了显著加速,达到或超过其他类型的加速策略。但是,文章的方法需要一个合适的训练范式和模组模仿技巧来弥补由于去除 token mixer 而造成的性能损失。

不同老师模型的泛化性。为了验证所提出的训练范式是一种通用的压缩技术,本文采用 [47] 中提出的架构修改作为学生模型,同时将老师模型更换为其他 4 种 MetaFormer基线 [47],其 token mixer 分别为随机矩阵、池化、可分离深度卷积和自注意力。表 9 显示,文章的方法在不同深度设置和老师模型情况下都有积极效果。
文章的方法可以很好地适应不同的老师模型。加载权重、模组模仿技巧和优化策略一起,所提出的训练范式可以泛用于移除 token mixer 压缩模型。



总结与局限性

作为一篇论文,本文调查了视觉骨干构建块中的 token mixer,并针对其相当大的延迟成本提出了移除的方法,在边缘设备工程应用中有较大的实用性。为了保持剩余结构的有效性,文章彻底重新审视了训练范式。文章观察到,适当的优化策略可以有效地帮助一个没有 token mixer 的模型从另一个模型中学习有用的知识,提高其性能并弥补不完整结构造成的差异。但是,本文的局限性在于没有讨论更多的视觉任务,包括检测、去模糊等。

更多阅读



#投 稿 通 道#

 让你的文字被更多人看到 



如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。


总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 


PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。


📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算


📬 投稿通道:

• 投稿邮箱:[email protected] 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿


△长按添加PaperWeekly小编



🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧


·
·

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
8年了,Transformer注意力机制一直有Bug?transformer高效训练方法一览基于Transformer的大模型是如何运行的?Meta从全局和上下文学习揭秘AAAI 2023 | 用于城市交通流量预测的空间传播延迟感知的动态长距离自注意力模型最新综述!南洋理工和上海AI Lab提出基于Transformer的视觉分割综述20+篇里程碑式论文,带你从「Transformer的前世」速通到ChatGPT12种模态,一个学习框架,Meta-Transformer实现骨干网络大一统ICCV 2023 | token过度聚焦暴露注意力机制弱点,两种模块设计增强视觉Transformer鲁棒性窗外就是欧·亨利PackedBert:如何用打包的方式加速Transformer的自然语言处理任务ChatGPT危了!「注意力公式」8年神秘bug首曝光,Transformer模型恐大受冲击华为将推盘古数字人大模型;搜狗原CMO加盟王小川公司;首个线性注意力Transformer大模型推出丨AIGC大事日报ICLR 2023|场景三维重建新SOTA!基于3D Transformer的单目场景重建Gzip+ kNN文本分类竟然击败Transformers:无需预训练、14行代码实现1000000000!微软改进Transformer一次能记住这么多token了最新NaViT模型炸场!适用任何长宽比+分辨率,性能能打的Transformer2023回国 中国经济的现状令人堪忧。。。VCE物理— transformer的理解和例题ICLR 2023 | Edgeformers: 基于Transformer架构的表征学习框架ACL 2023 Findings | 概率句法角度的Transformer诠释ChatGPT危了!注意力机制的神秘bug曝光!Transformer模型恐大受冲击...在Transformer时代重塑RNN,RWKV将非Transformer架构扩展到数百亿参数打破职场瓶颈:21天「AI+笔记」助你开启高效新篇章比Transformer快4成!Meta发布全新Megabyte模型,解决算力损耗硬伤沉痛哀悼彭慧敏主任《心中的那片竹海》&《和光同尘》彻底解决ChatGPT健忘症!突破Transformer输入限制:实测支持200万个有效token微软新出热乎论文:Transformer扩展到10亿tokentransformer的细节到底是怎么样的?Transformer 连环18问!5049 血壮山河之武汉会战 鏖战幕府山 18让注意力提速9倍!FlashAttention燃爆显存,Transformer上下文长度史诗级提升!田渊栋新作:打开1层Transformer黑盒,注意力机制没那么神秘Transformer开山论文惊天「翻车」?图与代码不一致,神秘bug看傻了ICLR 2023 | DIFFormer: 扩散过程启发的Transformer炸裂!微软新作LongNet:将Transformer扩展到10亿个Tokens
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。