Redian新闻
>
CVPR 2023 | HPM:在掩码学习中挖掘困难样本,带来稳固性能提升!

CVPR 2023 | HPM:在掩码学习中挖掘困难样本,带来稳固性能提升!

公众号新闻

©作者 | 王淏辰
今天介绍我们在自监督掩码学习(Masked Image Modeling)领域的一篇原创工作 HPM (Hard Patches Mining for Masked Image Modeling)。 

各种自监督掩码学习方法的性能强烈依赖于人工定义的掩码策略,而我们提出一种新的困难样本挖掘策略,让模型自主地掩码困难样本,提升代理任务的难度,从而获得强大的表征提取能力。目前 HPM 已被 CVPR 2023 接收,相关代码已开源,有任何问题欢迎在 GitHub 提出。


论文标题:
Hard Patches Mining for Masked Image Modeling

录用信息:

CVPR 2023, https://arxiv.org/abs/2304.05919

代码开源:

https://github.com/Haochen-Wang409/HPM


Introduction


 ▲ Figure 1. Comparison between conventional MIM pre-training paradigm and our proposed HPM.
在典型的 MIM 方法中,模型通常专注于预测 masked patches 的某一形式的 target (例如 BEiT[1]的离散 token,MAE[2] 的 pixel RGB)。而由于 CV 信号的稠密性,MIM 方法通常需要预先定义的掩盖策略,以构造具有挑战性的自监督代理任务。否则,一个简单的插值就能完成对于 masked patches 的重建。总的来说,整个 MIM 的过程可以被认为是训练一个学生(模型),解决给定的问题(重建 masked patches),如上图 (a) 所示。
然而,我们认为,模型不应该只专注于解决给定的问题,还应该站在老师的立场上,具备自己出具挑战性问题的能力。通过创造具有挑战性的问题并解决这些问题,模型可以同时站在学生和老师的立场上,对图像内容有一个更全面的理解,从而通过产生一个高难度的代理任务来引导自己提取更加可扩展的表征。为此,我们提出了Hard Patches Mining(HPM),一个全新的MIM预训练框架,如上图 (b) 所示。
具体来说,给定一个输入图像,我们不是在人工设计的标准下生成一个 binary mask,而是首先让模型作为一个老师,自主产生掩码;然后像传统方法一样,让模型作为一个学生,让它重建 masked patches。
接下来,该问题就转化为了如何评判某一个 patch 是否为困难样本。我们自然地想到:「如果某一 patch 难以重建,即重建 loss 较大,则它为困难样本」。
 ▲ Figure 2. For each tuple, we show the (a) input image, (b) patch-wise reconstruction loss averaged over 10 different masks, (c) predicted loss, and (d) masked images generated by the predicted loss.
如上图所示,我们发现一张图片中 discriminative 的区域(前景)往往是难以重建的。因此,只要让模型「预测每个 patch 的重建损失」,进而 mask 掉那些高重建损失的 patch,就得到了更加具有挑战性的代理任务。
因此,我们引入了一个辅助的 loss predictor,用以预测每个 patch 的重建损失。



Method


 ▲ Figure 3. Illustration of our proposed HPM.

HPM 包含一个学生模型和一个老师模型,它们共享网络结构,包含 encoder ,图像重建 decoder ,损失预测 decoder 。老师模型的参数是由学生模型指数平滑更新而来的。
每次迭代,一张图片首先打成 patch,并经过老师模型,得到每个 patch 预测的重建损失。进而,基于该预测,产生当前的 binary mask ,用于 MIM 任务。损失函数包含两项:
,
其中 表示重建损失,是标准的 MIM 损失;而 表示的是重建损失预测损失。


图像重建


其中 表示产生的 binary mask, 表示 element-wise dot product,因此 表示的是 visible patches。 表示的是某种产生 target 的 transformation,例如 MAE 中就是一个恒等映射,而 BEiT 中则是将图像转化为离散的 token。, 表示某种度量,如 MAE 中用的 距离,SimMIM[3]中用的 smooth 距离。



重建损失预测

4.1 绝对损失

一种最直观的方法就是直接最小化真实重建 loss 和预测的重建 loss 之间的 MSE,即
其中 表示的是学生模型的 loss predictor,而这里的 已截断梯度。
然而,回顾一下,我们的目标是确定图像中的困难样本,因此我们需要学习 patch 之间的相对关系。在这种情况下,MSE 并不是最合适的选择,因为 的 scale 会随着训练的进行而减少,因此损失预测器可能会被其 scale 和准确值所淹没,而忽略了提取 patch 间的相对大小。为此,我们提出了一种基于二元交叉熵的相对损失
4.2 相对损失
给定一张含有 N 个 patch 的图片,其真实的重建损失为,我们的目的是预测这 N 个 patch 之间重建损失的相对大小,即 。然而, 并不可导,我们将问题转化为了「dense relation comparison」,即预测两两 patch 之间的大小关系。
其中 表示的是学生模型输出的损失预测值,而 i, j=1,2, 是 patch indexes。 函数,即 是两个指示函数,表示 patch i 和 patch j 的真实重建损失大小,定义如下:
其中 表示的是 patch i 和 patch j 都应当是被 masked 的。



掩码产生:easy-to-hard

一个自然的想法就是每次迭代过程中,先基于老师模型计算 ,然后 top-75% 的 patch 都 mask 掉。然而,在早期训练阶段,学到的特征表征容易被丰富的纹理所淹没,这意味着重建损失与判别性还没有建立起相应的关系。为此,我们提出了一种由易到难的掩码生成方式,提供一些合理的提示,引导模型一步一步地重建掩码的硬块。
具体来说,假设 mask ratio 为 ,则在 t 次迭代,我们 mask 掉 最大的 个 patch,剩余 个需要 mask 的 patch 则随机产生。
整个训练过程的伪代码为:



Experiments

6.1 消融实验

这一部分,我们以 ViT-B/16 为 backbone,以 ImageNet-1K 上 pre-train 200 epochs 为默认配置。
重建目标的消融。我们发现,不管以什么为重建目标,加入 作为额外的损失,并基于此进一步产生更难的代理任务均能获得性能提升。值得注意的是,仅仅引入一个额外的 objective 也能够带来 consistent 的性能提升,表明挖掘困难样本的能力本身,就能够促使习得更好的特征表示。这一点不仅在分类任务上得到体现,下游任务(检测分割)也有相应的体现。
掩码策略的消融。我们发现,难度大的代理任务确实能够带来性能提升,但保留一定的随机性也是同样必要的。这些结论是非常直观的。直接掩盖那些预测损失最高的 patch 虽然带来了最难的问题,但图像 discriminative parts 几乎被掩盖了,这意味着 visible patches 几乎都是背景(见图2)。在没有任何提示的情况下,强迫模型只根据这些背景来重建前景是没有意义的。
进一步地,我们探究「难」的代理任务对于 MIM 是否有帮助。其中, 表示这个任务甚至简单于 random masking,会导致性能退化。类似的,hard-to-easy 也会导致性能退化。
预测损失的 formulation。MSE 相较于 baseline 能够有提升,但 BCE 是一个更好的选择。

Comparison with state-of-the-art methods

下面,给出了一些预测损失的可视化。可以看出,预测损失很好的反应了物体的前景部分。

参考文献

[1] Hangbo Bao, Li Dong, and Furu Wei. Beit: Bert pre-training of image transformers. In International Conference on Learning Representations (ICLR), 2022 
[2] Kaiming He,Xinlei Chen,Saining Xie,Yanghao Li, Piotr Dollár, and Ross Girshick. Masked autoencoders are scalable vision learners. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2022  
[3] Zhenda Xie, Zheng Zhang, Yue Cao, Yutong Lin, Jianmin Bao, Zhuliang Yao, Qi Dai, and Han Hu. Simmim: A simple framework for masked image modeling. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2022.


更多阅读



🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧



·
·
·


微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
CVPR 2023 | MobileOne:移动端仅需1ms的高性能主干!超越MobileViT!CVPR 2023 | 一块隔热片即可实现红外场景下的物理攻击,北航提出针对红外行人检测器的漏洞挖掘技术转:2023 回国探亲(5)ZT: 糖基化终产物(AGEs)CVPR 2023 | LeCun世界模型首个研究!自监督视觉像人一样学习和推理!Eruope 2023CV 又卷起来了!Meta AI 开源万物可分割 AI 模型,11 亿 + 掩码数据集可提取当你老了 。。。。。。上海AI实验室联合团队获CVPR最佳论文奖 | CVPR 2023基辅, 我的心心念念CVPR 2023 | 微软提出LDGM:利用解耦扩散模型统一版面生成炸裂!最新CVPR2023、ICML2023、AAAI2023、ACL2023论文+Code大合集!当GPT-4反思自己错了:性能提升近30%,编程能力提升21%CVPR2023 | 微软提出高效率大规模图文检索模型Arm新一代架构发布:CPU能效提升40%,GPU性能提升15%CVPR 2023 | 谷歌、MIT提出统一框架MAGE:表征学习超MAE,无监督图像生成超越 Latent Diffusion由一张90年前的家照想起​一文速览CVPR 2023掩码图像建模领域最新研究进展面向大模型训练,腾讯发布高性能计算集群:整体性能提升3倍CVPR 2023 | 掩码图像建模MIM的理解、局限与扩展速度提升24倍,30分钟完成室内大场景逆渲染,如视研究成果入选CVPR 2023小别胜新婚英语,等等2023 春 祝姐妹们周末快乐!录用2360篇、接收率25.78%,CVPR 2023接收结果公布CVPR 2023 | 统一框架MAGE:表征学习超MAE,无监督图像生成超越Latent DiffusionCVPR 2023 接收结果出炉!再创历史新高!录用2360篇!(附10篇最新论文)CVPR 2023 | 基于动作元对比学习的无监督骨架动作识别CVPR 2023 Workshop | 马普所、麻省理工等举办生成模型研讨会每天少使用15分钟手机,可增强免疫、改善睡眠;让GPT-4自我反思:性能提升近30%,编程能力提升21%|本周值得读CVPR 2023 | YOLOv7强势收录!时隔6年,YOLOv系列再登CVPR!今年 CV 热点这么多,不可错过 CVPR 2023 线下论文分享会CVPR 2023 | 基于CLIP的微调新范式!训练速度和性能均创新高!CVPR 2023|All in UniSim:统一的自动驾驶仿真平台CVPR 2023 | 即插即用!SQR:对于训练DETR-family目标检测的探索和思考CVPR 2023论文总结!CV最热领域颁给多模态、扩散模型国际要闻简报,轻松了解天下事(03ICLR 2023 | 基于视觉语言预训练模型的医疗图像小样本学习及零样本推理性能研究CVPR 2023 | 模块化MoE将成为视觉多任务学习基础模型eBay 开发新的推荐模型,从数据中挖掘商机2022&2023 Subaru Outback 和 2023 Honda CRV Hybrid二选一
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。