Redian新闻
>
抛弃编码器-解码器架构,用扩散模型做边缘检测效果更好,国防科大提出DiffusionEdge

抛弃编码器-解码器架构,用扩散模型做边缘检测效果更好,国防科大提出DiffusionEdge

公众号新闻

机器之心专栏

机器之心编辑部


现有的深度边缘检测网络通常基于包含了上下采样模块的编码器 - 解码器架构,以更好的提取多层次的特征,但这也限制了网络输出既准又细的边缘检测结果。


针对这一问题,一篇 AAAI 2024 上的论文给出了新的解决方案。



  • 论文题目:DiffusionEdge: Diffusion Probabilistic Model for Crisp Edge Detection

  • 作者:叶云帆(国防科技大学),徐凯(国防科技大学),黄雨行(国防科技大学),易任娇(国防科技大学),蔡志平(国防科技大学)

  • 论文链接: https://arxiv.org/abs/2401.02032

  • 开源代码: https://github.com/GuHuangAI/DiffusionEdge


国防科技大学 iGRAPE Lab 提出了首个用于二维边缘检测任务的扩散概率模型方法,通过学习迭代的去噪过程获得边缘结果图,去噪过程如图 1 所示。为了在保留最终性能的同时减少计算资源的消耗,该方法在隐空间中训练网络,并引入了不确定性蒸馏模块以更好的优化。同时,本方法还采用解耦架构来加速去噪过程,并提出了相应的自适应傅立叶滤波器来调整特征。基于这些设计,本方法得以用有限的资源进行稳定的训练,用更少的增强策略来预测清晰准确的边缘图。在四个公共基准数据集上的大量实验表明,本文提出的方法在准确度和粗细度上全面超越了其他方法。


图 1 基于扩散概率模型的边缘检测过程与优势示例


本文的创新点包括:


1、提出了领域内第一个针对边缘检测任务的扩散模型 DiffusionEdge,无需任何后处理即可预测出更细更准确的边缘图。

2、针对扩散模型应用时的难点,设计了多种技术以确保方法能在隐空间中稳定学习,同时保留像素级的不确定性先验知识并自适应地过滤傅立叶空间中的隐特征。

3、在四个边缘检测公共基准数据集上开展的大量对比实验展示了 DiffusionEdge 在准确度和细度方面均具有卓越的性能优势。


相关工作


基于深度学习的方法通常采用包含上下采样的编解码结构集成多层特征 [1-2],或是整合多个标注的不确定性信息以提升边缘检测的准确度 [3]。然而,天然受限于这样的结构,其生成的边缘结果图对于下游任务来说太过粗厚而严重依赖后处理的问题仍然亟待解决。尽管许多工作已经在损失函数 [4-5] 和标签修正策略 [6] 方面做出了探索以使网络能输出更细的边缘,但本文认为该领域仍然需要一个可以不借助任何额外模块,就能直接满足准确度和细度的边缘检测器,而无需任何后处理步骤。


扩散模型是一类基于马尔可夫链的生成模型,通过学习去噪过程逐渐恢复目标数据样本。扩散模型在计算机视觉、自然语言处理和音频生成等领域都表现出了卓越的性能。不仅如此,通过将图像或是其他模态的输入作为额外条件时,其在感知任务中也表现出了巨大的潜力,例如图像分割 [7]、目标检测 [8] 和姿态估计 [9] 等。


方法描述


本文所提出的 DiffusionEdge 方法总体框架如图 2 所示。受以往工作的启发,该方法在隐空间中训练具有解耦结构的扩散模型,并将图像作为额外的条件线索输入。该方法引入了自适应傅里叶滤波器来进行频率解析,且为了保留来自多个标注者的像素级不确定性信息并减少对计算资源的要求,还以蒸馏的方式直接使用交叉熵损失优化隐空间。


图 2 DiffusionEdge 的整体结构示意


针对目前的扩散模型受到采样步数太多,推理时间太长等问题的困扰,本方法受 DDM [10] 的启发,同样使用解耦的扩散模型架构来加速采样推理过程。其中,解耦的前向扩散过程由显式的转移概率和标准 Wiener 过程的组合来控制:



其中分别代表初始边缘和噪声边缘,指的是反向边缘梯度的显式转换函数。与 DDM 类似,本文方法默认使用常量函数,则其相应的逆过程可以被表示为:



其中。为了训练解耦的扩散模型,该方法需要同时监督数据和噪声分量,因此,训练目标可以被参数化为:



其中是去噪网络中的参数。由于扩散模型如果要在原始图像空间中训练的话会占用太多的计算成本,因此参考 [11] 的思路,本文提出的方法将训练过程转移到了具有 4 倍下采样空间大小的隐空间中。


如图 2 所示,该方法首先训练了一对自编码器和解码器的网络,该编码器将边缘标注压缩为一个隐变量,而解码器则用于从这个隐变量中恢复出原来的边缘标注。如此一来,在训练基于 U-Net 结构的去噪网络阶段,该方法便固定这一对自编码和解码器网络的权重,并在隐空间中训练去噪过程,这样可以大幅减少网络对计算资源的消耗,同时维持不错的性能。


为了提升网络最后的性能,本文提出的方法在解耦操作中引入了一种可以自适应地过滤掉不同频率特征的模块。如图 2 左下角所示,该方法将自适应的快速傅立叶变换滤波器(Adaptive FFT-filter)集成到了去噪 Unet 网络中,位置在解耦操作之前,以在频域中自适应过滤并分离出边缘图和噪声分量。具体来说,给定编码器特征  ,该方法首先沿空间维度执行二维的傅里叶变换(FFT),并将变换后的特征表示为  。紧接着,为了训练这个自适应频谱滤波模块,构造了一个可学习的权重图  并将其W乘以Fc。频谱滤波器可以全局地调整特定频率,并且学习到的权重可以适应不同数据集目标分布的不同频率情况。通过自适应地滤除无用成分,本方法通过快速傅里叶逆变换(IFFT)操作将特征从频域映射回空间域。最后,通过额外引入了来自的残差连接,避免完全过滤掉了所有有用的信息。上述过程可以由以下公式来描述:



其中是输出特征,o表示哈达玛积(Hadamard Product)。


由于边缘和非边缘像素的数量高度不平衡(大多数像素都是非边缘的背景),参考以往的工作,我们同样引入不确定性感知的损失函数进行训练。具体来说,将作为第i个像素的真值边缘概率,对于第j个边缘图中的第i个像素,其值为,则不确定性感知 WCE 损失的计算方式如下:



其中,其中是决定真值标注中不确定的边缘像素的阈值,如果像素值大于 0 而小于此阈值,则此类模糊的,置信度不够高的像素样本将在后续的优化过程中被忽略(损失函数为 0)。分别表示真值标注边缘图中边缘和非边缘像素的数量。是用来平衡的权重(设为 1.1)。因此,每个边缘图的最终损失函数计算方式为


在优化过程中忽略模糊的低置信度的像素可以避免网络混乱,使训练过程更稳定的收敛,并提高模型的表现。然而,将二元交叉熵损失直接应用于在数值和空间上均未对齐的隐空间中是几乎不可能的。尤其是,不确定性感知的交叉熵损失中利用阈值(一般从 0 到 1)来判断像素是否为边缘,这是从图像空间上定义的,而隐变量遵循正态分布并且具有完全不同的范围和实际意义。此外,像素级的不确定性很难与不同大小的编码和下采样的隐特征保持一致,二者是很难直接兼容的。因此,将交叉熵损失直接应用于优化隐变量不可避免地会导致不正确的不确定性感知。


另一方面,人们可以选择将隐变量解码回图像级别,从而可以直接使用不确定性感知交叉熵损失来直接监督预测出的边缘结果图。不幸的是,这种实现让反向传播的参数梯度通过了冗余的自编码器网络,使得梯度很难得到有效的传递。此外,自编码器网络中额外的梯度计算会带来巨大的 GPU 内存消耗成本,这违背了本方法设计一个实用的边缘检测器的初衷,很难推广到实际应用中。因此,本方法提出了不确定性蒸馏损失,可以直接优化隐空间上的梯度,具体来说,设重构出的隐变量为,自编码器网络的解码器是D,解码出的边缘结果是eD,本方法考虑基于链式法则直接计算不确定性感知的二元交叉熵损失的梯度,具体计算方式为:



为了消除自编码器网络的负面影响,本方法直接跳过了自编码器传递梯度并将梯度的计算方式修改调整为:



这样的实现方式大大降低了计算成本,并允许利用不确定性感知的损失函数直接在隐变量上优化。如此一来,再结合一个随步数t自适应变化的时变损失权重,本方法最终训练优化目标可以被表示为:


实验结果


本方法在四个领域内被广泛使用的边缘检测公共标准数据集上进行了实验:BSDS、NYUDv2、Multicue 和 BIPED。由于边缘检测数据标注比较难,标注数据量都比较少,以往的方法通常会使用各种策略来增强数据集。例如说,BSDS 中的图像通过水平翻转 (2×)、缩放 (3×) 和旋转 (16×) 进行增强,能够生成比原始版本扩大了 96 倍的训练集。以往的方法在其他数据集上使用的通用增强策略总结在了表格 1 中,其中 F 代表水平翻转,S 代表缩放,R 代表旋转,C 代表裁剪,G 代表伽马校正。不同的是,本方法仅需要使用随机裁剪的 320320 的图像块来训练所有数据。在 BSDS 数据集中,本方法则仅仅采用随机的翻转和缩放,其定量对比结果展示在了表 2 中。在 NYUDv2、Mu lticue 和 BIPED 数据集中,该方法仅需采用随机翻转训练。在使用更少增强策略的情况下,本方法在各个数据集,各个指标上的表现都优于之前的方法。通过观察图 3-5 的预测结果可以看出,DiffusionEdge 能够学习并预测出跟 gt 分布几乎一样的边缘检测结果图来,预测结果准确而清晰的优势对于有精细化需求的下游任务来说非常重要,也展示了其能直接应用于后续任务的巨大潜力。


表 1 以往方法在四个边缘检测数据集上使用的增强策略


表 2 不同方法在 BSDS 数据集上的定量对比


图 3 不同方法在 BSDS 数据集上的定性对比


图 4 不同方法在 NYUDv2 数据集上的定性对比


图 5 不同方法在 BIPED 数据集上的定性对比


1. 参考文献

[1] Xie, S., & Tu, Z. (2015). Holistically-nested edge detection. In Proceedings of the IEEE international conference on computer vision (pp. 1395-1403).

[2] Liu, Y., Cheng, M. M., Hu, X., Wang, K., & Bai, X. (2017). Richer convolutional features for edge detection. In Proceedings of the IEEE conference on computer vision and pattern recognition (pp. 3000-3009).

[3] Zhou, C., Huang, Y., Pu, M., Guan, Q., Huang, L., & Ling, H. (2023). The Treasure Beneath Multiple Annotations: An Uncertainty-aware Edge Detector. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (pp. 15507-15517).

[4] Deng, R., Shen, C., Liu, S., Wang, H., & Liu, X. (2018). Learning to predict crisp boundaries. In Proceedings of the European conference on computer vision (ECCV) (pp. 562-578).

[5] Huan, L., Xue, N., Zheng, X., He, W., Gong, J., & Xia, G. S. (2021). Unmixing convolutional features for crisp edge detection. IEEE Transactions on Pattern Analysis and Machine Intelligence, 44 (10), 6602-6609.

[6] Ye, Y., Yi, R., Gao, Z., Cai, Z., & Xu, K. (2023). Delving into Crispness: Guided Label Refinement for Crisp Edge Detection. IEEE Transactions on Image Processing.

[7] Brempong, E. A., Kornblith, S., Chen, T., Parmar, N., Minderer, M., & Norouzi, M. (2022). Denoising pretraining for semantic segmentation. In Proceedings of the IEEE/CVF conference on computer vision and pattern recognition (pp. 4175-4186).

[8] Chen, S., Sun, P., Song, Y., & Luo, P. (2023). Diffusiondet: Diffusion model for object detection. In Proceedings of the IEEE/CVF International Conference on Computer Vision (pp. 19830-19843).

[9] Wang, J., Rupprecht, C., & Novotny, D. (2023). Posediffusion: Solving pose estimation via diffusion-aided bundle adjustment. In Proceedings of the IEEE/CVF International Conference on Computer Vision (pp. 9773-9783).

[10] Huang, Y., Qin, Z., Liu, X., & Xu, K. (2023). Decoupled Diffusion Models with Explicit Transition Probability. arXiv preprint arXiv:2306.13720.

[11] Rombach, R., Blattmann, A., Lorenz, D., Esser, P., & Ommer, B. (2022). High-resolution image synthesis with latent diffusion models. In Proceedings of the IEEE/CVF conference on computer vision and pattern recognition (pp. 10684-10695).




© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
3D重建范式变革!最新模型MVDiffusion++:无需相机姿态,即可实现高清3D模型重建NeurIPS 2023 | 港科大&华为提出CoDA:开放词汇3D目标检测新网络药物-靶标亲和力预测,上科大团队开发了一种Transformer编码器和指纹图谱相结合的方法Stable Diffusion 3 论文终于发布,架构细节大揭秘,对复现 Sora 有帮助?医学顶刊Nature Medicine!上海交大盛斌团队提出DeepDR Plus:预测糖尿病视网膜病变进展时间的深度学习系统华为&中科大提出TinySAM:手机就能实时跑的分割一切模型从王局看日本居留的难度扩散模型更懂复杂提示词!Pika北大斯坦福开源新框架,利用LLM提升理解力攻克图像「文本生成」难题,碾压同级扩散模型!两代TextDiffuser架构深度解析挺看好的一个学妹也在学扩散模型!扩散模型微信交流群来了!几何纹理重建新SOTA!浙大提出SIFU:单图即可重建高质量3D人体模型扩散模型图像理解力刷新SOTA!字节复旦团队提出全新「元提示」策略扩散模型图像理解力刷新SOTA!字节联合复旦团队提出全新「元提示」策略走吧,乘着火车转南疆(上)扩散模型方向微信交流群成立!巧解「数据稀缺」问题!清华开源GPD:用扩散模型生成神经网络参数|ICLR 2024从4篇经典论文看扩散模型在图上的研究进展双林奇案录第三部之鹤鼎莲方壶: 第二十四节​ICML 2023 | 港大提出创新时空图预训练架构,助力智慧城市多维任务学习CVPR 2024 | 北大&电子科大提出RCBEVDet:毫米波雷达-相机多模态的感知架构几行代码稳定UNet ! 中山大学等提出ScaleLong扩散模型:从质疑Scaling到成为Scaling小米回应SU7上险价36万,暴雪官宣新总裁,国际奥委会主席称考虑举办首届电竞奥运会,Edge被指窃数据,这就是今天的其他大新闻!ICLR 2024 | Adobe提出DMV3D:3D生成只需30秒!让文本、图像都动起来的新方法!《细雨长歌》&《推开世界的门》2024最流行的网站架构——边缘平台架构:概念与产品【解码各大跨国公司股权架构】SHEIN、拼多多、海底捞股权架构大揭秘!拳打Gen-2脚踢Pika,谷歌爆肝7个月祭出AI视频大模型!首提时空架构,时长史诗级延长《星级男人通鉴》第52章 福建人的媳妇生成扩散模型漫谈:中值定理加速ODE采样王长虎:PixVerse 实测效果已超过 Pika,抖音经验让我们有足够优势CVPR 2024|生成不了光线极强的图片?微信视觉团队有效解决扩散模型奇点问题何恺明谢赛宁团队步步解构扩散模型,最后竟成经典去噪自编码器顶刊TIP 2023!浙大提出:基于全频域通道选择的的无监督异常检测Stability AI开源上新:3D生成引入视频扩散模型,质量一致性up,4090可玩
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。