Redian新闻
>
ICLR 2023杰出论文奖得主分享:用于密集预测任务的通用小样本学习器

ICLR 2023杰出论文奖得主分享:用于密集预测任务的通用小样本学习器

公众号新闻

点击下方卡片,关注“CVer”公众号

AI/CV重磅干货,第一时间送达

点击进入—>【Transformer】微信技术交流群


转载自:微软亚洲研究院

(本文阅读时间:9分钟)


编者按:国际学习表征会议 ICLR(International Conference on Learning Representations),被公认为当前最具影响力的机器学习国际学术会议之一。在今年的 ICLR 2023 大会上,微软亚洲研究院发表了在机器学习鲁棒性、负责任的人工智能等领域的最新研究成果。其中,微软亚洲研究院与韩国科学技术院(KAIST)在双方学术合作框架下的科研合作成果,因出色的清晰性、洞察力、创造力和潜在的持久影响获评 ICLR 2023 杰出论文奖。研究员们提出了首个适配所有密集预测任务的小样本学习器 VTM,以轻量化的迁移成本,赋予了计算机视觉模型预测新任务标签的能力,为计算机视觉中密集预测任务的处理以及小样本学习方法打开了全新思路。

近期,我们将在微信视频号“微软亚洲研究院”和 B 站“微软科技”的直播间,安排微软亚洲研究院入选 ICLR 2023 论文的特别直播,与你共话机器学习的前沿成果!更多直播细节,敬请期待。

密集预测任务是计算机视觉领域的一类重要任务,如语义分割、深度估计、边缘检测和关键点检测等。对于这类任务,手动标注像素级标签面临着难以承受的巨额成本。因此,如何从少量的标注数据中学习并作出准确预测,即小样本学习,是该领域备受关注的课题。近年来,关于小样本学习的研究不断取得突破,尤其是一些基于元学习和对抗学习的方法,深受学术界的关注和欢迎。

然而,现有的计算机视觉小样本学习方法一般针对特定的某类任务,如分类任务或语义分割任务。它们通常在设计模型架构和训练过程中利用特定于这些任务的先验知识和假设,因此不适合推广到任意的密集预测任务。微软亚洲研究院的研究员们希望探究一个核心问题:是否存在一种通用的小样本学习器,可以从少量标记图像中学习任意段未见过的密集预测任务。

一个密集预测任务的目标是学习从输入图像到以像素为单位注释的标签的映射,它可以被定义为:


其中 H 和 W 分别是图像的高与宽,输入图像一般包含 RGB 三个通道,C_Τ 表示输出通道的数目。不同的密集预测任务可能涉及不同的输出通道数目和通道属性,如语义分割任务的输出是多通道二值的,而深度估计任务的输出是单通道连续值的。一个通用的小样本学习器 F,对于任何这样的任务 Τ,在给定少量标记样本支持集 S_Τ(包含了 N 组样本 X^i 和标注 Y^i)的情况下,可以为未见过的查询图像 X^q 产生预测,即:


如果存在适配任意密集预测任务的通用小样本学习器,那么必须满足以下期望:

  • 首先,它必须具备 e 统一的体系结构。该结构能够处理任意密集预测任务,并共享大多数任务所需的参数,以便获取可泛化的知识,从而能以小量样本学习任意未见过的任务。

  • 其次,学习器应该灵活地调整其预测机制,以解决具有各种语义的未见过的任务,同时足够高效,以防止过度拟合。

因此,微软亚洲研究院的研究员们设计并实现了小样本学习器视觉令牌匹配 VTM(Visual Token Matching),其可用于任意的密集预测任务。这是首个适配所有密集预测任务的小样本学习器,VTM 为计算机视觉中密集预测任务的处理以及小样本学习方法打开了全新的思路。该工作获得了 ICLR 2023 杰出论文奖

论文:Universal Few-shot Learning of Dense Prediction Tasks with Visual Token Matching


链接:https://arxiv.org/abs/2303.14969





VTM 的设计灵感源于类比人类的思维过程:给定一个新任务的少量示例,人类可以根据示例之间的相似性快速将类似的输出分配给类似的输入,同时也可以根据给定的上下文灵活变通输入和输出之间在哪些层面相似。研究员们使用基于图像块(patch)级别的非参数匹配实现了密集预测的类比过程。通过训练,模型被启发出了捕捉图像块中相似性的能力。

给定一个新任务的少量标记示例,VTM 首先会根据给定的示例以及示例的标签调整其对相似性的理解,从示例图像块中锁定与待预测图像块相似的图像块,通过组合它们的标签来预测未见过的图像块的标签。

图1:VTM 的整体架构

VTM 采用分层的编码器-解码器架构,在多个层次上实现了基于图像块的非参数匹配。它主要由四个模块组成,分别为图像编码器 f_Τ、标签编码器 g、匹配模块和标签解码器 h。给定查询图像和支持集,图像编码器首先会独立地提取每个查询和支持图像的图像块级表达。标签编码器也会类似地提取每个支持标签的标记。在每个层次的标记给定后,匹配模块会执行非参数匹配,最终由标签解码器推断出查询图像的标签。

VTM 的本质是一个元学习方法。其训练由多个 episode 组成,每个 episode 模拟一个小样本学习问题。VTM 训练运用到了元训练数据集 D_train,其中包含多种有标签的密集预测任务示例。每个训练 episode 都会模拟数据集中特定任务 T_train 的小样本学习场景,目标是在给定支持集的条件下,为查询图像产生正确的标签。通过多个小样本学习的经验,模型能够学习到通用的知识,以便快速、灵活地适应新的任务。在测试时,模型需要在训练数据集 D_train 中未包含的任意任务 T_test 上进行小样本学习。

在处理任意任务时,由于元训练和测试中的每个任务的输出维度 C_Τ 不同,因此使得为所有任务设计统一的通用模型参数成为了巨大挑战。为了提供一个简单而普适的解决方案,研究员们将任务转换为 C_Τ 个单通道子任务,分别学习每个通道,并使用共享的模型 F 独立地对每个子任务进行建模。

为了测试 VTM ,研究员们还特别构建了 Taskonomy 数据集的一个变种,从而模拟未见过的密集预测任务的小样本学习。Taskonomy 包含各种标注过的室内图像,研究员们从中选择了十个具有不同语义和输出维度的密集预测任务,将其分为五部分用于交叉验证。在每个拆分方式中,两个任务用于小样本评估(T_test),其余八个任务用于训练(T_train)。研究员们仔细构造了分区,使得训练和测试任务彼此有足够的差异,例如将边缘任务(TE,OE)分组为测试任务,以便对新语义的任务进行评估。

表1:在 Taskonomy 数据集上的定量比较( Few-shot 基线在训练了来自其他分区的任务后,在需测试的分区任务上进行了 10-shot 学习,其中完全监督的基线在每个 fold(DPT)或所有 fold(InvPT)上训练和评估了任务)

表1和图2分别定量与定性地展示了 VTM 和两类基线模型在十个密集预测任务上的小样本学习性能。其中,DPT 和 InvPT 是两种最先进的监督学习方法,DPT 可独立地针对每个单一任务进行训练,而 InvPT 则可以联合训练所有任务。由于在 VTM 之前还没有针对通用密集预测任务开发的专用小样本方法,因此研究员们将 VTM 与三种最先进的小样本分割方法,即 DGPNet、HSNet 和 VAT,进行对比,并把它们拓展到处理密集预测任务的一般标签空间。VTM 在训练期间没有访问测试任务 T_test,并且仅在测试时使用了少量(10张)的标记图像,但它却在所有小样本基线模型中表现得最好,并且在许多任务中的表现都具备与全监督基线模型比较的竞争力。

图2:在 Taskonomy 的十个密集预测任务中,在新任务上仅提供十张标记图像的小样本学习方法的定性比较。在其他方法失败的情况下, VTM 成功地学习了所有具有不同语义和不同标签表示的新任务。

在图2中,虚线上方的分别是真实标签和两种监督学习方法 DPT 和 InvPT。虚线下方的是小样本学习方法。值得注意的是,其他小样本基线在新任务上出现了灾难性的欠拟合,而 VTM 成功地学习了所有任务。实验说明,VTM 可以在极少量的标记示例(<0.004%的完全监督)上现表现出与完全监督基线类似的竞争力,并能够在相对较少的附加数据(0.1%的完全监督)下缩小与监督方法的差距,甚至实现反超。

总结来说,尽管 VTM 的底层思路非常简单,但它具有统一的体系结构,可用于任意密集预测任务,因为匹配算法本质上包含所有任务和标签结构(例如,连续或离散)。此外,VTM 仅引入了少量的任务特定参数,就能具备抗过拟合性与灵活性。未来研究员们希望进一步探究预训练过程中的任务类型、数据量、以及数据分布对模型泛化性能的影响,从而帮助我们构建一个真正普适的小样本学习器。

点击进入—>【Transformer】微信技术交流群


最新CVPR 2023论文和代码下载


后台回复:CVPR2023,即可下载CVPR 2023论文和代码开源的论文合集

后台回复:Transformer综述,即可下载最新的3篇Transformer综述PDF


目标检测和Transformer交流群成立


扫描下方二维码,或者添加微信:CVer333,即可添加CVer小助手微信,便可申请加入CVer-目标检测或者Transformer 微信交流群。另外其他垂直方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch、TensorFlow和Transformer等。


一定要备注:研究方向+地点+学校/公司+昵称(如目标检测或者Transformer+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群


▲扫码或加微信号: CVer333,进交流群

CVer计算机视觉(知识星球)来了!想要了解最新最快最好的CV/DL/AI论文速递、优质实战项目、AI行业前沿、从入门到精通学习教程等资料,欢迎扫描下方二维码,加入CVer计算机视觉,已汇集数千人!


扫码进星球

▲点击上方卡片,关注CVer公众号

整理不易,请点赞和在看

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
ACL 2023 | 复旦邱锡鹏组提出模块化Prompt多任务预训练,可快速适应下游任务论文插图也能自动生成了!用到了扩散模型,还被ICLR 2023接收!2022年ACM博士论文奖公布了爱尔兰岛自驾(3)- 爱尔兰行程攻略 + 启程都柏林ICLR 2023 | 解决VAE表示学习问题,北海道大学提出新型生成模型GWAE炸裂!最新CVPR2023、ICML2023、AAAI2023、ACL2023论文+Code大合集!【糗事,笑话】我本想叫”东坡肉钓鱼”的。。。。。。ICLR 2023 | MocoSFL: 低成本跨用户联邦自监督学习​ICLR 2023 | 用于类别不平衡图表示学习的统一数据模型稀疏性ICLR 2023 | Edgeformers: 基于Transformer架构的表征学习框架ICLR 2023 | 初探AI拼图模型预测蛋白质复合物结构UDOP项目原作解读:统一视觉、语言、格式、任务的通用文档处理模型文学城2023年第二届奥斯卡影评征文活动CVPR 2023 | 小红书提出OvarNet模型:开集预测的新SOTA,“万物识别”有了新玩法7 Papers & Radios | ICLR 2023杰出论文奖;微软GPT-4完整测评大幅优化推理过程,字节高性能Transformer推理库获IPDPS 2023最佳论文奖ICLR 2023 | 大模型上下文学习的无限扩展方法:kNN Prompting上海AI实验室联合团队获CVPR最佳论文奖 | CVPR 2023加州17英里,礁石海滩 (手机)超越所有开源模型,击败 Claude、Bard,专门用于编程任务的大模型来了ICLR 2023 | 基于视觉语言预训练模型的医疗图像小样本学习及零样本推理性能研究重磅!6位理科竞赛大奖得主分享11个国际竞赛备赛经验,全程干货!ICLR 2023邀你加入精选论文讲解直播间最新出炉!ICLR 2023强化学习领域18篇论文盘点ICLR 2023杰出论文奖得主分享:适配任意密集预测任务的通用小样本学习器北大获奖,清华、人大等提名,ICLR 2023杰出论文奖出炉【附PDF】整理了114篇医疗论文,含cvpr2023医疗论文+经典论文+医疗论文综述等ICLR 2023|节省95%训练开销,清华黄隆波团队提出强化学习专用稀疏训练框架一个通用的自适应prompt方法,突破了零样本学习的瓶颈ICLR 2023 | 如何融合进化算法与强化学习打破性能瓶颈?首次发现!数据异构影响联邦学习模型,关键在于表征维度坍缩 | ICLR 2023​ICLR 2023 | LightGCL: 简单且高效的图对比学习推荐系统ICLR 2023 | 负责任的人工智能,守护机器学习的进阶思考ICLR 2023 | PromptPG:当强化学习遇见大规模语言模型西江月:小池静谧景一方
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。