Redian新闻
>
ConvNet与Transformer谁更强?Meta评测4个领先视觉模型,LeCun转赞

ConvNet与Transformer谁更强?Meta评测4个领先视觉模型,LeCun转赞

公众号新闻



  新智元报道  

编辑:桃子
【新智元导读】当前的视觉模型哪个更好?Meta团队最新一波研究来了。

如何根据特定需求选择视觉模型?

ConvNet/ViT、supervised/CLIP模型,在ImageNet之外的指标上如何相互比较?

来自MABZUAI和Meta的研究人员发表的最新研究,在「非标准」指标上全面比较了常见的视觉模型。

论文地址:https://arxiv.org/pdf/2311.09215.pdf

就连LeCun称赞道,非常酷的研究,比较了相似大小的ConvNext和VIT架构,无论是在监督模式下训练,还是使用CLIP方法进行训练,并在各种属性上进行了比较。

超越ImageNet准确性


计算机视觉模型格局,变得越来越多样复杂。

从早期的ConvNets到Vision Transformers的演进,可用模型的种类在不断扩展。

类似地,训练范式已经从ImageNet上的监督训练,发展到自监督学习、像CLIP这样的图像文本对训练。

在标志着进步的同时,这种选择的爆炸式增长给从业者带来了重大挑战:如何选择适合自己的目标模型?

一直以来,ImageNet准确率一直是评估模型性能的主要指标。自从引发深度学习革命以来,它已经推动了人工智能领域显著的进步。

不过,它却无法衡量因不同架构、训练范式和数据而产生的细微差别的模型。

如果仅根据ImageNet的准确度来判断,具有不同属性的模型可能看起来很相似(图 1)。随着模型开始过度拟合ImageNet的特性,精度达到饱和,这种局限性就会变得更加明显。

为了弥补差距,研究人员对ImageNet准确性之外的模型行为进行了深入探索。

为了研究架构和训练目标对模型性能的影响,具体比较了Vision Transformer (ViT)和ConvNeXt。这两种现代架构的ImageNet-1K验证精度和计算要求相当。

此外,研究对比了以DeiT3-Base/16和ConvNeXt-Base为代表的监督模型,以及OpenCLIP基于CLIP模型的视觉编码器。

结果分析


研究人员的分析旨在,研究无需进一步训练或微调即可评估的模型行为。

这种方法对于计算资源有限的从业人员尤为重要,因为他们通常依赖于预训练模型。

具体分析中,虽然作者认识到对象检测等下游任务的价值,但重点是那些能以最小的计算需求提供洞察力的特性,以及反映对真实世界应用非常重要的行为的特性。

模型错误

ImageNet-X是一个对ImageNet-1K进行了扩展的数据集,其中包含16个变化因素的详细人工标注,从而能够深入分析图像分类中的模型错误。

它采用错误率(越低越好)来量化模型在特定因素上,相对于整体准确性的表现,从而对模型错误进行细致入微的分析。ImageNet-X 的结果表明:

1. 相对于其ImageNet准确性,CLIP模型比受监督的模型犯的错误更少。

2. 所有模型都主要受到遮挡等复杂因素的影响。

3. 纹理是所有模型中最具挑战性的因素。

形状/纹理偏差

形状/纹理偏差会检验模型,是否依赖于纹理快捷方式,而不是高级形状提示。

这种偏向可以通过结合不同类别的形状和纹理的提示冲突图像来研究。

这种方法有助于了解与纹理相比,模型的决策在多大程度上是基于形状的。

研究人员对提示冲突数据集上的形状-纹理偏差进行了评估,发现CLIP模型的纹理偏差小于监督模型,而ViT模型的形状偏差高于ConvNets。

模型校准

校准可量化模型的预测置信度与其实际准确度是否一致。

这可以通过预期校准误差 (ECE) 等指标,以及可靠性图和置信度直方图等可视化工具进行评估。

研究人员在ImageNet-1K和ImageNet-R上对校准进行了评估,将预测分为15个等级。在实验中,观察到以下几点:

- CLIP模型置信度高,而监督模型则略显不足。

- 有监督的ConvNeXt比有监督的ViT校准得更好。

健壮性和可移植性

模型的健壮性和可移植性,是适应数据分布变化和新任务的关键。

研究人员使用不同的ImageNet变体评估了稳健性,发现虽然ViT和ConvNeXt模型具有类似的平均性能,但除了ImageNet-R和ImageNet-Sketch之外,监督模型在稳健性方面通常优于CLIP。

在可移植性方面,使用VTAB基准测试对19个数据集进行评估,监督ConvNeXt优于ViT,几乎与CLIP模型的性能相当。

合成数据

像PUG-ImageNet这样的合成数据集,可以精确控制相机角度和纹理等因素,成为一种很有前途的研究途径,因此研究人员根据合成数据分析模型的性能。

PUG-ImageNet包含逼真的ImageNet图像,这些图像具有照明等因素的系统变化,性能以绝对最高准确率来衡量。

研究人员提供了PUG-ImageNet中不同因素的结果,发现ConvNeXt在几乎所有因素上都优于ViT。

这表明ConvNeXt在合成数据上优于ViT,而CLIP模型的差距较小,因为CLIP模型的准确率低于监督模型,这可能与原始ImageNet的准确率较低有关。

特征不变性

特征不变性是指模型能够产生一致的表征,不受输入转换的影响,从而保留语义,如缩放或移动。

这一特性使模型能够在不同但语义相似的输入中很好地泛化。

研究人员的方法包括,调整图像大小以实现比例不变性,移动裁剪以实现位置不变性,以及使用内插位置嵌入调整ViT模型的分辨率。

在有监督的训练中,ConvNeXt的表现优于ViT。

总体而言,模型对尺度/分辨率变换的鲁棒性高于对移动的鲁棒性。对于需要对缩放、位移和分辨率具有较高鲁棒性的应用,研究结果表明有监督的ConvNeXt可能是最佳选择。

研究人员发现,每种模型都有自己独特的优势。

这表明模型的选择应该取决于目标用例,因为标准的性能指标可能会忽略关键任务特定的细微差别。

此外,许多现有的基准是从ImageNet派生出来的,这对评估有偏见。开发具有不同数据分布的新基准,对于在更具现实代表性的背景下评估模型至关重要。

ConvNet vs Transformer

- 在许多基准测试中,有监督的ConvNeXt比有监督的VIT具有更好的性能:它更好地校准,对数据转换不变,表现出更好的可转移性和健壮性。

- 在合成数据上,ConvNeXt的表现优于ViT。

- ViT有较高的形状偏向。

Supervised vs CLIP

- 尽管CLIP模型在可转移性方面更好,但监督的ConvNeXt在这项任务上表现出了竞争力。这展示了有监督的模型的潜力。

- 监督模型更擅长稳健性基准,这可能是因为这些模型是ImageNet的变体。

- CLIP模型具有较高的形状偏差,与其ImageNet精度相比,分类错误较少。

参考资料:

https://x.com/ylecun/status/1744833945055683068?s=20


微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
人生旅途和多目标最优化我在Performer中发现了Transformer-VQ的踪迹[评测]NVIDIA GeForce RTX 4080 Super Founders Edition 评测2023晚秋中欧行(2) 柏林胜利女神柱和查理腾堡宫挑战 Transformer 霸权? Yan 架构竟以半价成本实现百万级参数大模型Transformer变革3D建模,MeshGPT生成效果惊动专业建模师,网友:革命性idea那些挑战Transformer的模型架构都在做些什么MIT斯坦福Transformer最新研究:过度训练让中度模型「涌现」结构泛化能力VQ一下Key,Transformer的复杂度就变成线性了44、长篇民国小说《永泰里》第九章 欢迎“友”军(6)预测token速度翻番!Transformer新解码算法火了,来自小羊驼团队|代码已开源Citing Safety, Beijing Bans Unregistered Electric ScootersHyena成下一代Transformer?StripedHyena-7B开源:最高128k输入,训练速度提升50%白面馒头与厚粥Robot Transformers 是什么 Transformer?[评测]Colorful iGame GeForce RTX 4080 Super Neptune OC 16GB 评测Arxiv最热论文推荐:揭秘Transformer新身份、谷歌VLM蒸馏、复旦LEGO模型大规模视觉模型新突破!70亿参数!Apple新作AIM:自回归图像模型《梦里花乡》&《许愿》CVPR 2023 | MovieChat: 集成视觉模型和LLM的长视频理解新型框架「GPT-4只是在压缩数据」,马毅团队造出白盒Transformer,可解释的大模型要来了吗?Hinton和LeCun再交锋,激辩LLM能否引发智能奇点!LeCun:人类理解能力碾压GPT-4Transformer变革3D建模!MeshGPT来了!效果惊动专业建模师。。。南开&山大&北理工团队开发trRosettaRNA:利用Transformer网络自动预测RNA 3D结构LeCun转发!大连理工卢湖川、贾旭团队提出可插入图像/视频/3D生成的StableIdentityMeta对Transformer架构下手了:新注意力机制更懂推理从20亿数据中学习物理世界,基于Transformer的通用世界模型成功挑战视频生成智能的本质就是压缩?马毅团队5年心血提出「白盒」Transformer, 打开LLM黑盒!BEV+Transformer架构加速“上车”,智能驾驶市场变革开启改进分子表征学习,清华团队提出知识引导的图 Transformer 预训练框架GPT-4V开源平替!清华浙大领衔,LLaVA、CogAgent等开源视觉模型大爆发[评测]NVIDIA GeForce RTX 4070 Super Founders Edition 评测Transformer挑战者出现!斯坦福CMU联合团队,开源模型及代码,公司已创办Yann LeCun点赞!Meta对Transformer架构下手了:新注意力机制更懂推理矩阵模拟!Transformer大模型3D可视化,GPT-3、Nano-GPT每一层清晰可见
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。