Redian新闻
>
最新综述!南洋理工和上海AI Lab提出基于Transformer的视觉分割综述

最新综述!南洋理工和上海AI Lab提出基于Transformer的视觉分割综述

公众号新闻

点击下方卡片,关注“CVer”公众号

AI/CV重磅干货,第一时间送达

点击进入—>【图像分割和Transformer】交流群

前言:

SAM (Segment Anything )作为一个视觉的分割基础模型,在短短的3个月时间吸引了很多研究者的关注和跟进。如果你想系统地了解SAM背后的技术,并跟上内卷的步伐,并能做出属于自己的SAM模型,那么接下这篇Transformer-Based的Segmentation Survey是不容错过!近期,南洋理工大学和上海人工智能实验室几位研究人员写了一篇关于Transformer-Based的Segmentation的综述,系统地回顾了近些年来基于Transformer的分割与检测模型,调研的最新模型截止至今年6月!同时,综述还包括了相关领域的最新论文以及大量的实验分析与对比,并披露了多个具有广阔前景的未来研究方向!

摘要:

视觉分割旨在将图像、视频帧或点云分割为多个片段或组。这种技术具有许多现实世界的应用,如自动驾驶、图像编辑、机器人感知和医学分析。在过去的十年里,基于深度学习的方法在这个领域取得了显著的进展。最近,Transformer成为一种基于自注意力机制的神经网络,最初设计用于自然语言处理,在各种视觉处理任务中明显超越了以往的卷积或循环方法。具体而言,视觉Transformer为各种分割任务提供了强大、统一甚至更简单的解决方案。本综述全面概述了基于Transformer的视觉分割,总结了最近的进展。首先,本文回顾了背景,包括问题定义、数据集和以往的卷积方法。接下来,本文总结了一个元架构,将所有最近的基于Transformer的方法统一起来。基于这个元架构,本文研究了各种方法设计,包括对这个元架构的修改和相关应用。此外,本文还介绍了几个相关的设置,包括3D点云分割、基础模型调优、域适应分割、高效分割和医学分割。此外,本文在几个广泛认可的数据集上编译和重新评估了这些方法。最后,本文确定了这个领域的开放挑战,并提出了未来研究的方向。本文仍会持续和跟踪最新的基于Transformer的分割与检测方法。

论文和开源仓库的地址:

论文题目:Transformer-Based Visual Segmentation: A Survey

发表单位:南洋理工大学,上海人工智能实验室

项目地址:https://github.com/lxtGH/Awesome-Segmentation-With-Transformer

论文地址:https://arxiv.org/abs/2304.09854

1,研究动机:

1.1,ViT和DETR 的出现使得分割与检测领域有了十足的进展,目前几乎各个数据集基准上,排名靠前的方法都是基于Transformer的。为此有必要系统地总结与对比下这个方向的方法与技术特点。

1.2,近期的大模型架构均基于Transformer结构,包括多模态模型以及分割的基础模型(SAM),视觉各个任务向着统一的模型建模靠拢。

1.3,分割与检测衍生出来了很多相关下游任务,这些任务很多方法也是采用Transformer结构来解决。

2,这篇综述的特色,以及与以往的Transformer综述有什么区别?

2.1 系统性和可读性。本文系统地回顾了分割的各个任务定义,以及相关任务定义,评估指标。并且本文从卷积的方法出发,基于ViT和DETR,总结出了一种元架构。基于该元架构,本综述把相关的方法进行归纳与总结,系统地回顾了近期的方法。具体的技术回顾路线如图1所示。

2.2 技术的角度进行细致分类。相比于前人的Transformer 综述,本文对方法的分类会更加的细致。本文把类似思路的论文汇聚到一起,对比了他们的相同点以及不同点。例如,本文会对同时修改元架构的解码器端的方法进行分类,分为基于图像的Cross Attention,以及基于视频的时空Cross Attention的建模。

2.3 研究问题的全面性。本文会系统地回顾分割各个方向,包括图像,视频,点云分割任务。同时,本文也会同时回顾相关的方向比如开集分割于检测模型,无监督分割和弱监督分割。

图1. Survey的内容路线图

图2. 常用的数据集以及分割任务总结

3,Transformer-Based 分割和检测方法总结与对比。

图3. 通用的元架构框架(Meta-Architecture)

本文首先基于DETR和MaskFormer的框架总结出了一个元架构。这个模型包括了如下几个不同的模块:

Backbone:特征提取器,用来提取图像特征。

Neck:构建多尺度特征,用来处理多尺度的物体。

Object Query:查询对象,用于代表场景中的每个实体,包括前景物体以及背景物体。

Decoder:解码器,用于去逐步优化Object Query以及对应的特征。

End-to-End Training:基于Object Query的设计可以做到端到端的优化。

基于这个元架构,现有的方法可以分为如下五个不同的方向来进行优化以及根据任务进行调整,如图4所示,每个方向有包含几个不同的子方向。

图4. Transformer-Based Segmentation方法总结与对比

3.1 更好的特征表达学习,Representation Learning。强大的视觉特征表示始终会带来更好的分割结果。本文将相关工作分为三个方面:更好的视觉Transformer设计、混合CNN/Transformer/MLP以及自监督学习。

3.2 解码器端的方法设计,Interaction Design in Decoder。本章节回顾了新的Transformer解码器设计。本文将解码器设计分为两组:一组用于改进图像分割中的交叉注意力设计,另一组用于视频分割中的时空交叉注意力设计。前者侧重于设计一个更好的解码器,以改进原始DETR中的解码器。后者将基于查询对象的目标检测器和分割器扩展到视频领域,用于视频目标检测(VOD)、视频实例分割(VIS)和视频像素分割(VPS),重点在建模时间一致性和关联性。

3.3 尝试从查询对象优化的角度,Optimizing Object Query。与Faster-RCNN相比,DETR要更长的收敛时间表。由于查询对象的关键作用,现有的一些方法已经展开了研究,以加快训练速度和提高性能。根据对象查询的方法,本文将下面的文献分为两个方面:添加位置信息和采用额外监督。位置信息提供了对查询特征进行快速训练采样的线索。额外监督着重设计了除DETR默认损失函数之外的特定损失函数。

3.4 使用查询对象来做特征和实例的关联,Using Query For Association。受益于查询对象的简单性,最近的多个研究将其作为关联工具来解决下游任务。主要有两种用法:一种是实例级别的关联,另一种是任务级别的关联。前者采用实例判别的思想,用于解决视频中的实例级匹配问题,例如视频的分割和跟踪。后者使用查询对象来桥接不同子任务实现高效的多任务学习。

3.5 多模态的条件查询对象生成,Conditional Query Generation。这一章节主要关注多模态分割任务。条件查询查询对象主要来处理跨模态和跨图像的特征匹配任务。根据任务输入条件而确定的,解码器头部使用不同的查询来获取相应的分割掩码。根据不同输入的来源,本文将这些工作分为两个方面:语言特征和图像特征。这些方法基于不同模型特征融合查询对象的策略,在多个多模态的分割任务以及few-shot分割上取得了不错的结果。

图5中给出这5个不同方向的一些代表性的工作对比。更具体的方法细节以及对比可以参考论文的内容。

图5. Transformer-based的分割与检测代表性的方法总结与对比

4,相关研究领域的方法总结与对比

本文还探索了几个相关的领域:1,基于Transformer的点云分割方法。2, 视觉与多模态大模型调优。3,域相关的分割模型研究,包括域迁移学习,域泛化学习。4,高效语义分割:无监督与弱监督分割模型。5,类无关的分割与跟踪。6,医学图像分割。

图6. 相关研究领域的基于Transformer方法总结与对比

5,不同方法的实验结果对比

图7. 语义分割数据集的基准实验

图8. 全景分割数据集的基准实验

本文还统一地使用相同的实验设计条件来对比了几个代表性的工作在全景分割以及语义分割上多个数据集的结果。结果发现,在使用相同的训练策略以及编码器的时候,方法性能之间的差距会缩小。

此外,本文还同时对比了近期的Transformer-based的分割方法在多个不同数据集和任务上结果。(语义分割,实例分割,全景分割,以及对应的视频分割任务)

6,未来可以进行的方向:

此外本文也给出了一些未来的可能一些研究方向分析。这里给出三个不同的方向作为例子。

6.1 更加通用与统一的分割模型。使用Transformer结构来统一不同的分割任务是一个趋势。最近的研究使用基于查询对象的Transformer在一个体系结构下执行不同的分割任务。一个可能的研究方向是通过一个模型在各种分割数据集上统一图像和视频分割任务。这些通用模型可以在各种场景中实现通用和稳健的分割,例如,在各种场景中检测和分割罕见类别有助于机器人做出更好的决策。

6.2,结合视觉推理的分割模型。视觉推理要求机器人理解场景中物体之间的联系,这种理解在运动规划中起着关键作用。先前的研究已经探索了将分割结果作为视觉推理模型的输入,用于各种应用,如目标跟踪和场景理解。联合分割和视觉推理可以是一个有前景的方向,对分割和关系分类都具有互惠的潜力。通过将视觉推理纳入分割过程中,研究人员可以利用推理的能力提高分割的准确性,同时分割结果也可以为视觉推理提供更好的输入。

6.3,持续学习的分割模型研究。现有的分割方法通常在封闭世界的数据集上进行基准测试,这些数据集具有一组预定义的类别,即假设训练和测试样本具有预先知道的相同类别和特征空间。然而,真实场景通常是开放世界和非稳定的,新类别的数据可能不断出现。例如,在自动驾驶车辆和医学诊断中,可能会突然出现未预料到的情况。现有方法在现实和封闭世界场景中的性能和能力之间存在明显差距。因此,希望能够逐渐而持续地将新概念纳入分割模型的现有知识库中,使得模型能够进行终身学习。

更多的研究方向内容可以查阅原始论文。

点击进入—>【图像分割和Transformer】交流群


最新CVPR 2023论文和代码下载


后台回复:CVPR2023,即可下载CVPR 2023论文和代码开源的论文合集

后台回复:Transformer综述,即可下载最新的3篇Transformer综述PDF


图像分割和Transformer交流群成立


扫描下方二维码,或者添加微信:CVer333,即可添加CVer小助手微信,便可申请加入CVer-图像分割或者Transformer 微信交流群。另外其他垂直方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch、TensorFlow和Transformer等。


一定要备注:研究方向+地点+学校/公司+昵称(如图像分割或者Transformer+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群


▲扫码或加微信号: CVer333,进交流群


CVer计算机视觉(知识星球)来了!想要了解最新最快最好的CV/DL/AI论文速递、优质实战项目、AI行业前沿、从入门到精通学习教程等资料,欢迎扫描下方二维码,加入CVer计算机视觉,已汇集数千人!


扫码进星球


▲点击上方卡片,关注CVer公众号

整理不易,请点赞和在看

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
transformer的细节到底是怎么样的?Transformer 连环18问!ICML 2023 | 轻量级视觉Transformer (ViT) 的预训练实践手册编码器-解码器 | 基于 Transformers 的编码器-解码器模型空巢日记摘要2006ViLT: 没有卷积和区域监督的视觉-语言Transformer模型你的DragGAN并不需要点跟踪!中科大和上海AI Lab提出FreeDrag:无需点跟踪即可稳定拖动语义内容费城凯利道(Kelly Drive),樱花街景无自注意力照样高效!RIFormer开启无需token mixer的Transformer结构新篇章《虞美人 - 碧螺春》分割一切深度图!港科技、南洋理工等开源「SAD」:根据几何信息分割图像苹果、俄勒冈州立提出AutoFocusFormer: 摆脱传统栅格,采用自适应下采样的图像分割ICLR 2023|场景三维重建新SOTA!基于3D Transformer的单目场景重建VCE物理— transformer的理解和例题解码器 | 基于 Transformers 的编码器-解码器模型​基于窗剪枝的去局部模糊Transformer,提升像质同时加速推理AutoFocusFormer:摆脱传统栅格,采用自适应下采样的图像分割南洋理工大学最新视觉语言模型综述:预训练、迁移学习和知识蒸馏啥都有清华大学提出LiVT,用视觉Transformer学习长尾数据,解决不平衡标注数据不在话下CVPR 2023 | 浙大&南洋理工提出PADing:零样本通用分割框架Emory Preview day (埃默里预览日)ICCV 2023 | 比分割一切SAM更早实现交互式开集分割!港科大提出OpenSeeD:开放词表图像分割和检测在Transformer时代重塑RNN,RWKV将非Transformer架构扩展到数百亿参数如果退休了我会想做什么?单子可是长长的哦ICLR 2023 | Edgeformers: 基于Transformer架构的表征学习框架Transformer后继有模!MSRA提出全新大模型基础架构:推理速度8倍提升,内存占用减少70%5分钟端侧部署视觉大模型!专为Transformer优化的AI芯片来了南洋理工最新视觉语言模型综述:预训练、迁移学习和知识蒸馏啥都有炸裂!微软新作LongNet:将Transformer扩展到10亿个Tokens基于Transformer的大模型是如何运行的?Meta从全局和上下文学习揭秘20+篇里程碑式论文,带你从「Transformer的前世」速通到ChatGPTICCV 2023 | token过度聚焦暴露注意力机制弱点,两种模块设计增强视觉Transformer鲁棒性揭秘Transformer基于上下文学习的能力:看它如何学到正确的线性模型?PackedBert:如何用打包的方式加速Transformer的自然语言处理任务ICML 2023 | UPop: 使用统一渐进剪枝压缩视觉-语言Transformers比Transformer快4成!Meta发布全新Megabyte模型,解决算力损耗硬伤
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。