Redian新闻
>
突破自监督学习效率极限!马毅、LeCun联合发布EMP-SSL:无需花哨trick,30个epoch即可实现SOTA

突破自监督学习效率极限!马毅、LeCun联合发布EMP-SSL:无需花哨trick,30个epoch即可实现SOTA

公众号新闻



  新智元报道  

编辑:LRS
【新智元导读】EMP-SSL实现了超高的自监督学习效率,训练1个epoch即可实现不错的分类性能。


过去几年,无监督和自监督学习(SSL)取得了巨大进步,通过SSL学习得到的表征在分类性能上甚至赶上了有监督学习,在某些情况下甚至还能超过有监督学习,这一趋势也为视觉任务的大规模数据驱动无监督学习提供了可能。

 

虽然自监督学习的实验性能惊人,但大多数自监督学习方法都是相当「低效」的,通常需要数百个训练epoch才能完全收敛。

 

 

最近,马毅教授、图灵奖得主Yann LeCun团队发布了一种新的自监督学习方法Extreme-Multi-Patch Self-Supervised-Learning(EMP-SSL),证明了高效自监督学习的关键是增加每个图像实例中的图像块数量。

 

论文链接:https://arxiv.org/pdf/2304.03977.pdf

代码链接:https://github.com/tsb0601/EMP-SSL

 

该方法不依赖于自监督学习中常见的启发式技术,如分支之间的权重共享,特征归一化、输出量化和停止梯度等,并将训练时间减少了两个数量级。

 

实验结果表明,只需一个训练epoch,文中所提出的方法就能够在CIFAR-10数据集上收敛到85.1%的准确率,在CIFAR-100数据集上收敛到58.5%,在Tiny ImageNet上收敛到38.1%,在ImageNet-100上收敛到58.5%

 

如果将训练epoch数提高到10,该方法可以在CIFAR-10上实现91.5%,在CIFAR-100上实现70.1%,在Tiny ImageNet上实现51.5%,在ImageNet-100上实现78.9%

 

此外,研究结果还表明,相比其他基线方法,EMP-SSL展现出相当好的训练数据领域外(out-of-domain)的迁移性能。

 

马毅教授于1995年获得清华大学自动化与应用数学双学士学位,并于1997年获加州大学伯克利分校EECS硕士学位,2000年获数学硕士学位与EECS博士学位。

 

 

2018年马毅教授加入加州大学伯克利分校电子工程与计算机科学系,今年1月加入香港大学出任数据科学研究院院长,最近又接任香港大学计算系主任。

 

主要研究方向为3D计算机视觉、高维数据的低维模型、可扩展性优化和机器学习,最近的研究主题包括大规模3D几何重构和交互以及低维模型与深度网络的关系。

 

EMP-SSL

 

整体流程

 

与其他 SSL 方法类似,EMP-SSL也是从图像的增强视图(augmented views)中获得联合嵌入,其中增强视图是固定大小的图像块(image patch)

 

这类方法有两个目标:

 

1. 同一图像的两个不同增强图像的表征应该更接近;

2. 表征空间不应该是collapsed trivial space,即必须保留数据的重要几何或随机结构。

 

之前的研究主要探索了各种策略和不同的启发式方法来实现这两个特性,并取得了越来越好的性能,其成功主要源于对图像块共现的学习。

 

为了让图像块共现的学习更有效率,研究人员在EMP-SSL中将自监督学习中的图像块数量增加到了极限(extreme)。

 

首先,对于输入的图像,先通过随机裁剪(可重叠)切分成n个固定大小的图像块,然后使用标准的数据增强技术对图像块进行增强。

 

对每个增强的图像块,通过两个网络分别获得获取嵌入(embedding)和投影(projection),其中嵌入网络是一个比较深的网络(如ResNet-18),投影网络更小,只有两个全连接层,二者共同组成编码器。

 

 

在训练期间,模型采用Total Coding Rate(TCR)正则化技术来避免表征崩溃。

 

 

研究人员也希望来自同一图像的不同图像块的表征是不变的,即在表示空间中应该尽可能接近,所以要尽量缩小增强图像的表征与同一图像中所有增强图像块的平均表征之间的距离,所以训练目标为:

 

 

其中Z代表不同增强图像块的表征平均值,D为距离函数(余弦相似度),即D的值越大,二者越相似。

 

这个目标函数可以看作是最大速率下降(maximal rate reduction)的一个变体,也可以看作是基于协方差的 SSL 方法的广义版本,将n设置为2就是常见的2-view自监督学习方法,也可以将n设的更大,以提高图像块贡献的学习速度

 

 

特征袋模型

 

研究人员将输入图像的表征定义为所有图像块的嵌入平均值,但也有工作认为,如果嵌入表征中包含更多的等差数列和局部性,性能也会更好,而投影应该更稳定,不过这个结论仍然缺乏严格证明。

 

架构

 

研究人员尝试采用自监督学习中经常使用的简单网络架构形式,即EMP-SSL 不需要预测网络、动量编码器、无差别算子或停止梯度。

 

虽然这些方法在某些自监督学习方法中已被证明是有效的,但其有效性可以留在下一步工作中继续探索,这篇论文主要关注提出的自监督学习方法的有效性。

 

实验结果

 

一个epoch的自监督学习

 

对比其他最先进的自监督学习方法,可以看到,即便EMP-SSL只看过一次数据集,也能收敛到接近完全收敛的SOTA性能。

 

 

结果表明,该方法不仅在提高当前 SSL 方法的收敛性方面具有巨大潜力,而且在计算机视觉的其他领域,如在线学习、增量学习和机器人学习中,也具有巨大潜力。

 

标准数据集上快速收敛

 

在标准数据集中,包括CIFAR-10、CIFAR-100、Tiny ImageNet 和 ImageNet-100,研究人员验证了所提目标函数在收敛速度方面的效率。

 

 

可以看到,EMP-SSL仅在一个epoch的训练之后,就在 20 个图像块的设置下实现了 80.6% 的准确率,在 200 个图像块设置下可以实现82.6%的准确率。

 

 

在10个epoch后,EMP-SSL就已经收敛到超过90%,也是CIFAR-10数据集上最先进的自监督学习方法;而30个 epochs 时,EMP-SSL 的准确率更是超过了当前所有方法,达到了 93% 以上。

 

关于时间效率问题,在联合嵌入自监督学习中,图像块数量的增加可能会延长训练时间。

 

研究人员对比了每种方法在 CIFAR 上达到规定性能所需的时间,使用两台 A100 GPU 进行实验。

 

 

从实验结果可以看出,在 CIFAR-10数据集上,EMP-SSL 不仅收敛所需的训练epoch少得多,而且运行时间也更短。

 

在更复杂的 CIFAR-100 数据集上,这一优势更加明显,以前的方法需要更多的训练epoch,因此收敛时间也更长,而 EMP-SSL 只需要几个训练epoch就能达到很好的效果。

 

表征可视化

 

研究人员使用 t-SNE maps的结果来证明,尽管只训练几个epoch,EMP-SSL 已经学到了有意义的表征。

 

 

在CIFAR-10训练集上学到的表征图中,EMP-SSL 使用 200 个图像块训练了 10 个 epochs,其他 SOTA 方法则训练了 1000 个 epochs,其中每个颜色代表一个不同的类别。

 

可以看到,EMP-SSL 为不同类别学习到的表征分离得更好,并且更结构化;与其他 SOTA 方法相比,EMP-SSL学习到的特征显示出更精细的低维结构。

 

最令人惊叹的是,所有这些结构都是在短短 10 个epoch的训练中学到的!

 

图像块数量消融实验

 

研究人员还对目标函数中的图像块数量n进行了消融实验,证明了该参数在收敛过程中的重要性。

 

 

参考资料:
https://arxiv.org/pdf/2304.03977.pdf




微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
LeCun「超酷」新成果:用自监督姿势打开偏微分方程LeCun力挺,马毅教授五年集大成之作:完全数学可解释的白盒Transformer,性能不输ViT速度提升数十倍,只需一张图一句话,谷歌新模型20秒即可实现变脸LeCun世界模型首项研究来了:自监督视觉,像人一样学习和推理,已开源韩国造出「世界首个室温超导体」?127度即可实现超导直接压缩一切!OpenAI首席科学家Ilya Sutskever这么看无监督学习ICCV 2023 | 混合训练策略突破目标检测大模型上限,创下COCO、LVIS新SOTA有娃家庭客厅这样布置,娃学习效率翻倍!连隔壁娃都跑来看书,暑假不试试太亏了Death of Coco Lee Triggers Public Discussion on Depression收割人类 III 之第十七章 黑洞记忆(6)压缩一切!OpenAI首席科学家Ilya Sutskever这么看无监督学习一文解决所有「语言模型」疑问:能不能训多个epoch?怎么微调效率高?需要多少条数据?ICCV 2023|目标检测新突破!AlignDet:支持各类检测器完全自监督预训练的框架MIT推出拾物机器人「最强辅助」,少量训练样本即可实现自然语言控制SSLRec:统一的自监督推荐算法库30%Token就能实现SOTA性能,华为诺亚轻量目标检测器Focus-DETR效率倍增开学 | 让学习效率翻倍的好文具华为 | Focus-DETR:30%Token就能实现SOTA性能,效率倍增Jisoo缺席!BLACKPINK x Cotton On联名新品发售!快闪店仅一天![单车] Trek Checkpoint SL7 - 一台可以开箱就骑的瓜车要想娃以后学习效率高,这4个小游戏现在就玩起来!GPT-4最强平替更新!UC伯克利发布Vicuna v1.5,支持4K和16K上下文,刷新SOTA,LeCun转赞无需人力标注!悉尼大学华人团队提出「GPT自监督标注」范式,完美解决标注成本、偏见、评估问题病毒羔羊第四章——萬壽無疆和死LeCun世界模型出场!Meta震撼发布首个「类人」模型,理解世界后补全半张图,自监督学习众望所归治愈系桌面收纳,工作学习效率翻倍《牡丹之歌》Yann LeCun团队新研究成果:对自监督学习逆向工程,原来聚类是这样实现的CVPR 2023 | LeCun世界模型首个研究!自监督视觉像人一样学习和推理!PromptAppGPT重磅更新!AI助手0门槛开发+运行:几十行代码即可实现AutoGPT六四,很撒娇 ——— 六四印象回放——— 六四的意义———- 六四,必要吗?LeCun力挺!马毅教授五年集大成之作:数学可解释的白盒Transformer,性能不输ViTEx-Soldier Sleeps in Cave for 22 Years to Protect Song Treasures如何让孩子提高学习效率,同时又能多睡一会儿?我在非洲某国当国师的那些事
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。