Redian新闻
>
ICLR 2023 | 3D UX-Net:超强的医学图像分割新网络

ICLR 2023 | 3D UX-Net:超强的医学图像分割新网络

公众号新闻

点击下方卡片,关注“CVer”公众号

AI/CV重磅干货,第一时间送达

点击进入—>CV微信技术交流群

转载自:CVHub

Title: 3D UX-Net: a Large Kernel Volumetric ConvNet Modernizing Hierarchical Transformer for Medical Image Segmentation

Author: Ho Hin Lee et al. (范德堡大学)

Paper: https://arxiv.org/abs/2209.15076

Github: https://github.com/MASILab/3DUX-Net

引言

众所周知,大多数医学图像如 MRI 和 CT 是属于 volumetric data 类型。因此,为了更加充分的利用体素信息,近几年已经提出了不少 3D CNNs 的模型,如 SwinUNETRUNETR以及笔者前段时间分享过的UNETR++等。

整体来说,这些模型性能是越来越高,在几个主流的 3D 数据基准测试中也实现了大大小小的 SOTA,特别是 3D 医学图像分割这块。当然,时代在进步,作为一名高科技前沿从业者本身也是需要不断汲取新的知识营养才能不被轻易的淘汰。今天小编就带大家解读下 ICLR 2023 新鲜出炉的 3D 医学图像分割之星——3D UX-Net

3D UXNet 是一种轻量级3D卷积神经网络,其使用 ConvNet 模块调整分层 Transformer 以实现稳健的体素分割,在三个具有挑战性的脑体积和腹部成像公共数据集与当前的 SOTA 模型如 SwinUNETR 对比,同时在以下三大主流数据集性能均达到了最优:

  • MICCAI Challenge 2021 FLARE
  • MICCAI Challenge 2021 FeTA
  • MICCAI Challenge 2022 AMOS

具体的,相比于 SwinUNETR,3D UX-Net 将 Dice 从 0.929 提高到 0.938 (FLARE2021),Dice 从 0.867 提高到 0.874 (Feta2021)。此外,为了进一步评估 3D UX-Net 的迁移学习能力,作者在 AMOS2022 数据集上训练得到的模型在另一个数据集上取得了 2.27% Dice 的提升(0.880 → 0.900)。

动机

先来看看最近提出的一众基于 Transformer 架构的 ViT 模型有什么优劣势。以 SwinUNETR 为例,其将 ConvNet 的一些先验引入到了 Swin Transformer 分层架构中,进一步增强了在 3D 医学数据集中调整体素分割的实际可行性。此类 "Conv+Transforemr" 的组合拳的有效性在很大程度上归功于以下两个因素:

  • 非局部自注意力所带来的大感受野
  • 大量的模型参数

为此,本文作者想到了应用深度卷积以更少的模型参数来模拟这些方法让网络学会如何捕获更大感受野的行为。这一点笔者在前文《关于语义分割的亿点思考》中也提过,文中对整个任务进行了深度剖析,有兴趣的读者可以自行翻阅公众号历史文章:

语义分割任务的核心思想是如何高效建模上下文信息,它是提升语义分割性能最为重要的因素之一,而有效感受野则大致决定了网络能够利用到多少上下文信息。

回到正文,本文的设计思路主要是受 ConvNeXt 启发,还没了解过的同学也可自行移动到公众号翻阅历史文章,笔者之前对该系列也讲解过了,此处不再详述。3D UX-Net 核心理念是设计出一种简单、高效和轻量化的 网络,其适用于 hierarchical transformers 的能力同时保留使用 ConvNet 模块的优势,如归纳偏置。具体地,其编码器模块设计的基本思想可分为: 1) block-wise(微观层面) 及 2) layer-wise(宏观层面)【可以类比下 ConvNeXt】。

block-wise

首先,我们先从下列三个不同的视角进行讨论。

Patch-wise Features Projection

对比 ConvNets 和 ViTs 之间的相似性,两个网络都使用一个共同的基础模块将特征表示缩小到特定的尺寸。以往的方法大都没有将图像块展平为具有线性层的顺序输入,因此作者采用具备大卷积核的投影层来提取 patch-wise 特征作为编码器的输入。

Volumetric Depth-wise Convolution with LKs

Swin transformer 的内在特性之一是用于计算非局部 MSA 的滑动窗口策略。总的来说,有两种分层方法来计算 MSA:基于窗口的 MSA (W-MSA) 和 移动窗口 MSA (SW-MSA)。这两种方式都生成了跨层的全局感受野,并进一步细化了非重叠窗口之间的特征对应关系。

受深度卷积思想的启发,作者发现自注意力中的加权和方法与每通道卷积基础之间的相似之处,其认为使用 LK 大小的深度卷积可以在提取类似于 MSA 块的特征时提供大的感受野。因此,本文建议采用 LK 大小(例如,从 7 × 7 × 7 开始)通过深度卷积压缩 Swin transformer 的窗口移动特性。如此一来便可以保证每个卷积核通道与相应的输入通道进行卷积运算,使得输出特征与输入具备相同的通道维度。

Inverted Bottleneck with Depthwise Convolutional Scaling

Swin transformer 的另一个固有结构是,它们被设计为 MLP 块的隐藏层维度比输入维度宽四倍,如下图所示。有趣的是,这种设计与 ResNet 块中的扩张率相关。因此,我们利用 ResNet 块中的类似设计并向上移动深度卷积来计算特征。此外,通过引入了具有 1 × 1 × 1 卷积核大小的深度卷积缩放(DCS),以独立地线性缩放每个通道特征。通过独立扩展和压缩每个通道来丰富特征表示,可以最小化跨通道上下文产生的冗余信息,同时在每个阶段增强了与下采样块的跨通道特征对应。最后,通过使用 DCS,可以进一步将模型复杂度降低 5%,并展示了与使用 MLP 模型的架构相当的结果。

layer-wise

介绍完微观层面的设计思想,再让我们从宏观层面出发,以另外三个崭新的视角去理解作者的动机。

Applying Residual Connections

从上图左上角可以看到,标准的 3D U-Net 模型内嵌的模块为 2 个 3 x 3 x 3 卷积的堆叠,其展示了使用小卷积核提取具有增加通道的局部表示的朴素方法;而其右手边的 SegResNet 则应用了类似 3D 版本的瓶颈层,先降维再升维最后再接残差表示;紧接着左下角的便是 Swin Transformer,其基于窗口注意力+MLP层的组合;最后右下角便是本文所提出的模块,其在最后一个缩放层之后应用输入和提取特征之间的残差连接。此外,在残差求和前后并没有应用到任何的归一化层和激活层。

Adapting Layer Normalization

我们知道,在卷积神经网络中,BN 是一种常用策略,它对卷积表示进行归一化以增强收敛性并减少过拟合。然而,之前的工作已经证明 BN 会对模型的泛化能力产生不利影响。因此作者这里跟 ConvNeXt 一致,将 BN 替换为 LN。

Using GELU as the Activation Layer

ReLU 是个好东西,几乎是现代 CNNs 模型的首选激活函数。作者在这里提倡使用 GELU,这是一种基于高斯误差的线性变换单元,相对 ReLU 更加平滑,也是其中一种变体,解决 ReLU 因负梯度被硬截断而导致的神经元失活问题。

方法

可以看出,整体的设计思路非常简洁,框架也是一目了然,就一个标准的 3D U-Net 架构,由编码器-解码器组成,同时结合长跳跃连接操作帮助网络更好的恢复空间细节的定位。也没啥好分析的,下面就简单拆开来看看,带大家快速的过一遍就行。

DEPTH-WISE CONVOLUTION ENCODER

首先,输入部分应用一个大卷积核将原始图像映射到一个低维空间分辨率的潜在空间特征表示,一来降低显存参数量计算量等,二来可以增大网络感受野,顺便再处理成编码器输入所需的格式,总之好处多多,不过都是基操。

处理完之后就输入到编码器中进行主要的特征提取,该编码器共4个stage,也是标准的16倍下采样。每个stage由多个不同的 3D UX-Net Block 构成,具体长啥样自己看下左图一点就通。主要的特点就是主打轻量化和大感受野。

DECODER

编码器中每个阶段的多尺度输出通过长跳跃连接链接到基于 ConvNet 的解码器,并形成一个类似U形的网络以用于下游的分割任务。这一块就跟标准的 3D U-Net 几乎没啥两样了。

实验

消融实验

可视化效果

可以看到,与 GT 相比,3D UX-Net器官和组织的形态得到了很好的保存。

与 SOTA 方法的对比

从上述表格可以看出,3D UX-Net 在所有分割任务中均展示出最佳性能,并且 Dice 分数有了显着提高(FeTA2021:0.870 到 0.874,FLARE2021:0.929 到 0.934)。

总结

本文为大家介绍了 3D UX-Net,这是第一个将分层 Transformer 的特征与用于医学图像分割的纯 ConvNet 模块相适应的3D网络架构。具体地,本文重新设计了具有深度卷积的编码器块,以更低的代价实现与 Transformer 想媲美的能力。最后,通过在三个具有挑战性的公共数据集上进行的广泛实验表明所提方法的高效性。

点击进入—>CV微信技术交流群


CVPR/ECCV 2022论文和代码下载


后台回复:CVPR2022,即可下载CVPR 2022论文和代码开源的论文合集

后台回复:ECCV2022,即可下载ECCV 2022论文和代码开源的论文合集

后台回复:Transformer综述,即可下载最新的3篇Transformer综述PDF


医疗影像 交流群成立


扫描下方二维码,或者添加微信:CVer222,即可添加CVer小助手微信,便可申请加入CVer-医疗影像 微信交流群。另外其他垂直方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch、TensorFlow和Transformer等。


一定要备注:研究方向+地点+学校/公司+昵称(如医疗影像+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群


▲扫码或加微信号: CVer222,进交流群


CVer学术交流群(知识星球)来了!想要了解最新最快最好的CV/DL/ML论文速递、优质开源项目、学习教程和实战训练等资料,欢迎扫描下方二维码,加入CVer学术交流群,已汇集数千人!


扫码进群

▲点击上方卡片,关注CVer公众号

整理不易,请点赞和在看

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
ICME 2022 | 通过定位语义块来加速图像分类江泽民去世,一个时代的结束我”阳“了扩散模型再发力!Hinton团队提出:图像和视频全景分割新框架ICLR 2022 | DBD:基于分割后门训练过程的后门防御方法年終碎想ICRA 2023 | CurveFormer:基于Transformer的3D车道线检测新网络噢!卡撒布兰卡!​ICLR 2023 | 标识分支结点,提升图神经网络对环的计数能力​ICLR 2023 | LightGCL: 简单且高效的图对比学习推荐系统Eruope 2023NeurIPS 2022 | 生成式语义分割新范式GMMSeg,可同时处理闭集和开集识别ImageNet零样本准确率首次超过80%!OpenCLIP:性能最强的开源CLIP模型名声大噪的YOLO迎来YOLOv8,迅速包揽目标检测、实例分割新SOTAICLR 2023 | 清华大学龙明盛组提出通用时间序列神经网络骨干—TimesNetICLR 2023 | 漂移感知动态神经网络:基于贝叶斯理论的时间域泛化框架首个3D人像视频生成模型来了:仅需1张2D人像,眨眼、口型都能改变 | ICLR 2023亲戚眼中的医学生VS导师眼中的医学生,真相太扎心......(附综述教程)香港内推 | 香港中文大学袁武老师招收计算机视觉/医学图像分析方向RA国际要闻简报,轻松了解天下事(03CVPR 2023 | 超越MAE!谷歌提出MAGE:图像分类和生成达到SOTA!基于无标注网络驾驶视频,自动驾驶策略预训练新方法 | ICLR 2023在赫拉克利特的河里多项国内外首次!“夸父一号”首批科学图像发布ICLR 2023 | 基于视觉语言预训练模型的医疗图像小样本学习及零样本推理性能研究ICLR 2023 | GeneFace:高可泛化高保真度的说话人视频合成ICLR 2023 Spotlight | 2D图像脑补3D人体:衣服随便搭,还能改动作博后招募 | 山东大学闵哲教授招聘智能手术机器人与医学图像处理方向博士后国际要闻简报,轻松了解天下事(03U-Net为什么会称霸医学图像分割?一文详解医学图像最新研究方向!ICLR 2023 Spotlight | 2D图像脑补3D人体,衣服随便搭,还能改动作2023 春 祝姐妹们周末快乐!​ICLR 2023 | GReTo:以同异配关系重新审视动态时空图聚合NeurIPS 2022 Spotlight|生成式语义分割新范式GMMSeg,可同时处理闭集和开集识别ICLR 2023 | 高分论文!上海交大提出H2RBox:旋转目标检测新网络欧美的医学家没人敢说本国阳性9成无症状,为什么我们的医学家敢转:2023 回国探亲(5)NeurIPS 2022 | 重振PointNet++雄风!PointNeXt:改进模型训练和缩放策略审视PointNet++时序分析五边形战士!清华提出TimesNet:预测、填补、分类、检测全面领先|ICLR 2023
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。