Redian新闻
>
马毅团队新作:白盒ViT成功实现"分割涌现"!具有高性能和数学可解释的特性

马毅团队新作:白盒ViT成功实现"分割涌现"!具有高性能和数学可解释的特性

公众号新闻

点击下方卡片,关注“CVer”公众号

AI/CV重磅干货,第一时间送达

点击进入—>【图像分割和Transformer】交流群


转载自:新智元 | 编辑:LRS

【导读】CRATE模型完全由理论指导设计,仅用自监督学习即可实现分割语义涌现。
在CVer微信公众号后台回复:CRATE,可以下载本论文pdf和代码

基于Transformer的视觉基础模型在各种下游任务,如分割和检测中都展现出了非常强大的性能,并且DINO等模型经过自监督训练后已经涌现出了语义的分割属性。


不过奇怪的是,类似的涌现能力并没有出现在有监督分类训练后的视觉Transformer模型中。


最近,马毅教授团队探索了基于Transformer架构的模型中涌现分割能力是否仅仅是复杂的自监督学习机制的结果,或者是否可以通过模型架构的适当设计在更通用的条件下实现相同的涌现。


在CVer微信公众号后台回复:CRATE,可以下载本论文pdf和代码

Emergence of Segmentation with Minimalistic White-Box Transformers

代码:https://github.com/Ma-Lab-Berkeley/CRATE

论文:https://arxiv.org/abs/2308.16271


通过大量的实验,研究人员证明了当采用白盒Transformer模型CRATE时,其设计明确地模拟并追求数据分布中的低维结构,整体和part级别的分割属性已经以最小化的监督训练配方出现。


分层的细粒度分析表明,涌现属性有力地证实了白盒网络的设计数学功能。我们的结果提出了一条设计白盒基础模型的途径,该模型同时具有高性能和数学上完全可解释性。


马毅教授也表示,深度学习的研究将会逐渐从经验设计转向理论指导。



白盒CRATE的涌现属性


DINO的分割涌现能力


智能系统中的表征学习旨在将世界的高维、多模态感官数据(图像、语言、语音)转换为更紧凑的形式,同时保留其基本的低维结构,实现高效的识别(比如分类)、分组(比如分割)和追踪。


深度学习模型的训练通常采用数据驱动的方式,输入大规模数据,以自监督的方式进行学习。


在视觉基础模型中,自监督Transformer架构的DINO模型展现出了令人惊讶的涌现能力,即使没有经过有监督分割训练,ViTs也能识别出显式的语义分割信息。


后续有工作研究了如何在DINO模型中利用这种分割信息,并在下游任务中,如分割、检测等实现了最先进的性能,也有工作证明了用DINO训练的ViTs中的倒数第二层特征与视觉输入中的显著性信息强烈相关,如区分前景、背景和物体边界,从而提升图像分割和其他任务的性能。


为了让分割属性涌现,DINO需要在训练期间将自监督学习、知识蒸馏和权重平均巧妙地结合起来。


目前还不清楚DINO中引入的每个组件是否对于分割遮罩的涌现来说必不可缺,尽管DINO也采用ViT架构作为其主干,但在分类任务上训练的普通有监督ViT模型中,并没有观察到分割涌现行为。


CRATE的涌现


基于DINO的成功案例,研究人员想要探究,复杂的自监督学习pipeline对于获得类似Transformer的视觉模型中的涌现属性是否是必要的。


研究人员认为,在Transformer模型中促进分割属性的一种有前途的方法是,在考虑输入数据结构的情况下设计Transformer模型架构,也代表了表征学习经典方法与现代数据驱动的深度学习框架的结合。



与目前主流的Transformer模型对比,这种设计方法也可以叫做白盒Transformer模型。


基于马毅教授组之前的工作,研究人员对白盒架构的CRATE模型进行了广泛的实验,证明了CRATE的白盒设计是自注意力图中分割属性涌现的原因。


定性评估


研究人员采用基于[CLS] token的注意力图方法对模型进行解释和可视化,结果发现CRATE中的query-key-value矩阵都是相同的。



可以观察到CRATE模型的自注意力图(self-attention map)可以对应到输入图像的语义上,模型的内部网络对每个图像都进行了清晰的语义分割,实现了类似DINO模型的效果。


相比之下,在有监督分类任务上训练的普通ViT却并没有表现出类似的分割属性。



遵循之前关于可视化图像学习的逐块深度特征的工作,研究人员对CRATE和ViT模型的深度token表征进行主成分分析(PCA)研究。



可以发现,CRATE可以在没有分割监督训练的情况下,依然可以捕捉到图像中物体的边界。


并且,主成分(principal compoenents)也说明了token和物体中相似部分的特征对齐,例如红色通道对应马腿。


而有监督ViT模型的PCA可视化结构化程度相当低。


定量评估


研究人员使用现有的分割和目标检测技术对CRATE涌现的分割属性进行评估。


从自注意力图可以看到,CRATE用清晰的边界显式地捕获了对象级的语义,为了定量测量分割的质量,研究人员利用自注意力图生成分割遮罩(segmentation mask),对比其与真实掩码之间的标准mIoU(平均交并比)。



从实验结果中可以看到,CRATE在视觉和mIOU评分上都显著优于ViT,表明CRATE的内部表征对于分割掩码任务生成来说要更有效。


对象检测和细粒度分割


为了进一步验证和评估CRATE捕获的丰富语义信息,研究人员采用了一种高效的目标检测和分割方法MaskCut,无需人工标注即可获得自动化评估模型,可以基于CRATE学到的token表征从图像中提取更细粒度的分割。




在COCO val2017上的分割结果中可以看到,有CRATE的内部表征在检测和分割指标上都要好于有监督ViT,有监督ViT特征的MaskCut在某些情况下甚至完全不能产生分割掩码。


CRATE分割能力的白盒分析


深度在CRATE中的作用


CRATE的每一层设计都遵循相同的概念目的:优化稀疏速率降低,并将token分布转换为紧凑和结构化的形式。


假设CRATE中语义分割能力的涌现类似于「表征Z中属于相似语义类别token的聚类」,预期CRATE的分割性能可以随着深度的增加而提高。


为了测试这一点,研究人员利用MaskCut来定量评估跨不同层的内部表征的分割性能;同时应用PCA可视化来理解分割是如何随深度加深而涌现的。



从实验结果中可以观察到,当使用来自更深层的表征时,分割分数提高了,与CRATE的增量优化设计非常一致。


相比之下,即使ViT-B/8的性能在后面的层中略有提高,但其分割分数明显低于CRATE,PCA结果显示,从CRATE深层提取的表征会逐渐更关注前景对象,并且能够捕捉纹理级别的细节。


CRATE的消融实验


CRATE中的注意力块(MSSA)和MLP块(ISTA)都不同于ViT中的注意力块。


为了了解每个组件对CRATE涌现分割属性的影响,研究人员选取了三个CRATE变体:CRATE, CRATE-MHSA, CRATE-MLP,分别表示ViT中的注意块(MHSA)和MLP块。


研究人员在ImageNet-21k数据集上应用相同的预训练设置,然后应用粗分割评估和遮罩分割评估来定量对比不同模型的性能。



实验结果显示,CRATE在所有任务中都明显优于其他模型架构,可以发现,尽管MHSA和MSSA之间的架构差异很小,但只需要简单地用CRATE中的MSSA替换ViT中的MHSA,可以显著改善ViT的粗分割性能(即VOC Seg),证明了白盒设计的有效性。


识别注意头的语义属性


[CLS] token和图像块token之间的自注意力图可以看到清晰的分段掩码,根据直觉,每个注意力头应该都可以捕捉到数据的部分特征。


研究人员首先将图像输入到CRATE模型,然后由人来检查、选择四个似乎具有语义含义的注意力头;然后在其他输入图像上在这些注意力头上进行自注意力图可视化。



可以发现,每个注意力头都捕捉到了物体的不同部分,甚至不同的语义:例如第一列中显示的注意力头可以捕捉到不同动物的腿,最后一列中显示的注意力头捕捉的是耳朵和头部。


自从可形变部件模型(deformable part model)和胶囊网络发布以来,这种将视觉输入解析为部分-整体层次结构的能力一直是识别架构的目标,白盒设计的CRATE模型也具有这种能力。


参考资料:
https://arxiv.org/abs/2308.16271
在CVer微信公众号后台回复:CRATE,可以下载本论文pdf和代码
点击进入—>【图像分割和Transformer】交流群


ICCV / CVPR 2023论文和代码下载


后台回复:CVPR2023,即可下载CVPR 2023论文和代码开源的论文合集

后台回复:ICCV2023,即可下载ICCV 2023论文和代码开源的论文合集

图像分割和Transformer交流群成立


扫描下方二维码,或者添加微信:CVer333,即可添加CVer小助手微信,便可申请加入CVer-图像分割或者Transformer 微信交流群。另外其他垂直方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch、TensorFlow和Transformer、NeRF等。


一定要备注:研究方向+地点+学校/公司+昵称(如图像分割或者Transformer+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群


▲扫码或加微信号: CVer333,进交流群


CVer计算机视觉(知识星球)来了!想要了解最新最快最好的CV/DL/AI论文速递、优质实战项目、AI行业前沿、从入门到精通学习教程等资料,欢迎扫描下方二维码,加入CVer计算机视觉,已汇集数千人!


扫码进星球


▲点击上方卡片,关注CVer公众号

整理不易,请点赞和在看

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
一定要养盆这么美的吊钟海棠等了 7 年,VSCode史上呼声最高的特性终于实现了!陈丹琦团队新作:5%成本拿下SOTA,“羊驼剪毛”大法火了!我是不是一个很绝情的人?罗杰波团队新作:后ChatGPT 时代公众对于AI技术的兴奋与担忧长篇小说《如絮》第一百五十九章 旧金山-1967年 避难所陈丹琦团队新作:5%成本拿下SOTA,“羊驼剪毛”大法火了活该!华人地铁上被黑女暴打侮辱, 事后还"怂"着说"不认为是仇恨犯罪", 黑女"误会"MindMap: 将知识图谱引入LLMs,实现稳健且可解释的推理吹尽黄沙不见金(五十六): 逃出生天"纽约将被摧毁"他37次疯狂@拜登;来真的,无证就查抄,纽约"大扫荡"加码,华人大妈痛诉"太不讲理了"。NeurIPS 2023 | 港科大提出EAC:"可解释一切"图像概念解释器"想到了同胞"美国大姐故意开车撞"犹太人学校"得知结果后"糗大了"。预售"秒光"、门票"炒高"、热度"爆表"…起底"演唱会经济"资本局!活该!华人地铁上被黑女暴打侮辱,事后还"怂"着说"不认为是仇恨犯罪",黑女"误会"。ICCV 2023 | 比分割一切SAM更早实现交互式开集分割!港科大提出OpenSeeD:开放词表图像分割和检测马毅团队新作!微调多模态大模型会「灾难性遗忘」,让性能大减陈丹琦团队新作:LLM-Shearing马毅团队新作!微调多模态大模型会「灾难性遗忘」李飞飞团队新作:脑控机器人做家务,让脑机接口具备少样本学习能力KDD 2023 | 因果启发的可解释框架:大模型解释的高效之路贾佳亚韩松团队新作:两行代码让大模型上下文窗口倍增 | GitHub热榜基金"中考"揭晓!多位百亿基金经理"惜墨如金","百字作文"含金量如何?震惊!纽约爆发"全面骚乱"!暴跌45%,"华尔街狼王"突然崩盘,大空头猛烈"开炮"活该!华人地铁上被黑女暴打侮辱,事后还"怂"着说"不认为是仇恨犯罪",黑女"误会"VS Code史上呼声最高的特性终于实现;vivo发布自研操作系统蓝河 (BlueOS) | 周热点"我就打你了怎么着?"纽约14岁华裔志愿者遇仇恨"辱骂""殴打"。《百年》&《生死契阔》马毅教授新作:白盒ViT成功实现分割涌现,经验深度学习时代即将结束?等了 7 年,VS Code 史上呼声最高的特性终于实现了模型越大越爱拍马屁!谷歌大神Quoc Le团队新作:用简单合成数据微调即可解决​上海楼市重磅,公积金也"认房不认贷"!"首套房""二套房"认定优化等了7年,VS Code史上呼声最高的特性终于实现了"司机师傅我想去那条街""哪条?""就是那条街!"逼疯老司机的加国路名!比Meta「分割一切AI」更早实现交互式开集分割!港科大开放词表分割大法入选ICCV 2023
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。