Redian新闻
>
NeurIPS 2022 | 首个将视觉、语言和音频分类任务进行统一的半监督分类学习基准

NeurIPS 2022 | 首个将视觉、语言和音频分类任务进行统一的半监督分类学习基准

公众号新闻

点击下方卡片,关注“CVer”公众号

AI/CV重磅干货,第一时间送达

点击进入—> CV 微信技术交流群

作者丨王晋东不在家@知乎(已授权)
来源丨https://zhuanlan.zhihu.com/p/566055279

导读

 

微软亚洲研究院的研究员们联合西湖大学、东京工业大学、卡内基梅隆大学、马克斯-普朗克研究所等机构的研究人员们提出了USB:第一个将视觉,语言,和音频分类任务进行统一的半监督分类学习基准。 

当使用监督学习(Supervised Learning)对大量高质量的标记数据(Labeled Data)进行训练时,神经网络模型会产生有竞争力的结果。例如,根据Paperswithcode网站统计,在ImageNet这一百万量级的数据集上,传统的监督学习方法可以达到超过88%的准确率。然而,获取大量有标签的数据往往费时费力。
为了缓解对标注数据的依赖,半监督学习(Semi-supervised Learning/SSL)致力于在仅有少量的标注数据时利用大量无标签数据(Unlabeled Data)来提升模型的泛化性。半监督学习亦是机器学习的重要主题之一。深度学习之前,这一领域的研究者们提出了诸如半监督支持向量机、熵正则化、协同训练等经典算法。

深度半监督学习

随着深度学习的兴起,深度半监督学习算法也取得了长足的进步。同时,包括Google、Meta和微软等在内的科技巨头也认识到了半监督学习在实际场景中的巨大潜力。例如,Google利用噪声学生训练(Noisy student training)这一半监督算法提高了其在搜索方面的性能[1]。当前最具代表性的半监督算法通常对标注数据使用交叉熵损失进行训练,对无标注数据使用一致性正则技术(Consistency Regularization)鼓励对输入扰动进行不变预测。例如,Google在NeurIPS 2020提出的FixMatch算法[2]利用增强锚定(Augmentation Anchoring)和固定阈值(Fixed Thresholding)技术来增强模型对不同强增强数据的泛化性和减少噪声伪标签(Noisy Pseudo Labels)的影响。在训练中,FixMatch过滤了低于用户指定(user-provided / pre-defined)阈值的无标签数据。
微软亚洲研究院与东京工业大学等在NeurIPS 2021合作提出的FlexMatch[3]则考虑到了不同类之间的学习难度不同,因此提出了课程伪标签(Curriculum Pseudo Labeling)技术对于不同类应该采用不同的阈值。具体来说,对于容易学习的类别,模型应该设置高阈值以降低噪声伪标签的影响;对于难学习的类,模型应该设置低阈值鼓励该类的拟合。每个类的学习难度评估取决于落入该类且高于固定值的未标记数据样本的数量。
同时,研究员和这些学校还合作提出了一个统一的基于Pytorch的半监督方法代码库TorchSSL[4],对该领域的深度方法、常用数据集、和基准结果进行了统一的支持。
微软亚洲研究院联合东京工业大学等单位提出的FlexMatch算法

当前半监督学习代码库存在的问题与挑战

尽管半监督学习的发展如火如荼,但是,研究员们注意到目前大部分半监督论文只关注计算机视觉 (CV) 分类任务,而其他领域(例如自然语言处理 (NLP)、音频处理 (Audio))研究者无法得知这些在CV任务上有效的算法是否依然有效。另外,大部分半监督论文都是由谷歌,微软等大型机构发表的,学术界的实验室往往由于计算资源的限制不能一起推动半监督领域的发展。总的来说,半监督学习基准目前存在以下两个问题:
(1)多样性不足。 现有的半监督学习基准大多局限于计算机视觉 (CV) 分类任务(即 CIFAR-10/100,SVHN,STL-10 和 ImageNet 分类),排除了对自然语言处理 (NLP)、音频处理 (Audio) 等分类任务的一致和多样化评估,而在NLP和Audio中缺乏足够的标记数据也是一个普遍问题。
(2)耗时且对学术界不友好。 现有的半监督学习基准(如TorchSSL)通常是耗时且不环保的,因为它需要通常从头开始训练深度神经网络模型。具体而言,使用 TorchSSL评估FixMatch[1]大约需要300个GPU日。如此高的训练成本使得许多研究实验室(尤其是学术界的实验室或小研究团体)无法负担得起SSL的相关研究,从而阻碍了SSL的进展。

USB: 任务多样化和对研究者更友好的新基准库

微软亚洲研究院的研究员们联合西湖大学、东京工业大学、卡内基梅隆大学、马克斯-普朗克研究所等机构的研究人员们提出了USB:第一个将视觉,语言,和音频分类任务进行统一的半监督分类学习基准。相比于之前的半监督学习基准(如TorchSSL)只关注少量视觉任务,该论文不仅引入更多样化的应用领域,还首次利用视觉预训练模型(Pretrained Vision Transformer)大大缩减了半监督算法的验证时间(从7000GPU时缩减至900GPU时),使得半监督研究对研究者、特别是小研究团体更友好。USB的相关论文已被国际人工智能顶会NeurIPS 2022接收。
此工作由多个单位合作完成:第一作者为王一栋(东京工业大学硕士、微软亚洲研究院与西湖大学实习生)、陈皓(卡耐基梅隆大学)、范越(马克斯·普朗克研究所);通讯作者是来自微软亚洲研究院的王晋东和来自西湖大学的张岳。其余作者来自清华大学、微软亚洲工程院、南京大学、奈良先端科学技术大学院大学和北京大学。
USB: 统一的半监督学习框架
  • 文章链接:https://arxiv.org/pdf/2208.07204.pdf
  • 代码链接:https://github.com/microsoft/Semi-supervised-learning

USB提供的解决方案

那么,USB如何一次性解决当前半监督基准存在的问题呢?研究员们进行了如下的改进:
(1)为增强任务多样性,USB引入了5个CV 数据集,5个NLP数据集和5个音频数据集提供了一个多样化且具有挑战性的基准,从而能够对来自不同领域的多个任务进行一致的评估。下表提供了USB与TorchSSL的任务和训练时间等方面的详细对比。
(2)为提高训练效率,研究员们将预训练的Vision Transformer引入SSL,而不是从头训练ResNets。具体而言,研究员们发现在不影响性能的情况下使用预训练模型可以大大减少训练迭代次数(例如,将 CV 任务的训练迭代次数从100万步减少到20万步)。
(3)为了对研究人员更加友好,研究员们开源实现了14种 SSL算法并开源了一个模块化代码库和相关的配置文件以供研究者轻松再现USB报告中的结果。为了快速上手,USB还提供详细的文档和教程。此外,USB还提供pip包以供使用者直接调用SSL算法。研究员们承诺未来会在USB中不断加入新的算法(例如不平衡半监督算法等)和更多更具挑战性的数据集。下图展示了USB中已支持的算法和模块。
USB中已支持的算法和模块

总结

半监督学习通过利用大量无标签数据来训练更精确、更鲁棒的模型,在未来有着重要的研究和应用价值。研究员们期待通过USB这一工作,能够予力学术界和工业界在半监督学习领域取得更大的进展。

参考

  1. ^Google半监督学习 https://ai.googleblog.com/2021/07/from-vision-to-language-semi-supervised.html
  2. ^FixMatch https://arxiv.org/abs/2001.07685
  3. ^FlexMatch https://proceedings.neurips.cc/paper/2021/file/995693c15f439e3d189b06e89d145dd5-Paper.pdf
  4. ^TorchSSL https://github.com/TorchSSL/TorchSSL


点击进入—> CV 微信技术交流群


CVPR 2022论文和代码下载


后台回复:CVPR2022,即可下载CVPR 2022论文和代码开源的论文合集

后台回复:Transformer综述,即可下载最新的3篇Transformer综述PDF


目标检测和Transformer交流群成立


扫描下方二维码,或者添加微信:CVer222,即可添加CVer小助手微信,便可申请加入CVer-目标检测或者Transformer 微信交流群。另外其他垂直方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch、TensorFlow和Transformer等。


一定要备注:研究方向+地点+学校/公司+昵称(如目标检测或者Transformer+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群


▲扫码或加微信号: CVer222,进交流群


CVer学术交流群(知识星球)来了!想要了解最新最快最好的CV/DL/ML论文速递、优质开源项目、学习教程和实战训练等资料,欢迎扫描下方二维码,加入CVer学术交流群,已汇集数千人!


扫码进群

▲点击上方卡片,关注CVer公众号

整理不易,请点赞和在看

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
首次突破30FPS!天大、清华和卡迪夫联合提出基于单RGB相机的全新三维表示方法FOF|NeurIPS 2022NeurIPS 2022 | 基于解耦因果子结构学习的去偏差图神经网络NeurIPS 2022 | 视觉感知质量攻击:NR-IQA模型鲁棒性的试金石NeurIPS 2022 Oral | 离线强化学习新范式!京东科技&清华提出解耦式学习算法“在所有事情上打败所有人”,微软多模态新作横扫12类任务,连纯视觉SOTA都刷新了ECCV 2022 Oral | ​Language Matters:面向场景文字检测和端到端识别的弱监督的视觉-语言预训练方法NeurIPS 2022 | 香港理工提出OGC:首个无监督3D点云物体实例分割算法无油炸肉圆 / 狮子头和四喜丸子是两码事AI居然「暗中」捣乱?港中大深圳联合西安交大发布后门学习新基准|NeurIPS 2022环游五大湖--游轮看pictured rocks national shorelineNeurIPS 2022|图对比学习的结构公平性初探AI求解偏微分方程新基准登NeurIPS,发现JAX计算速度比PyTorch快6倍,LeCun转发:这领域确实很火清华提出首个退化可感知的展开式Transformer|NeurIPS 2022NeurIPS 2022 | 清华提出首个退化可感知的展开式TransformerNeurIPS 2022 | 首个标注详细解释的多模态科学问答数据集,深度学习模型推理有了思维链VideoMAE:简单高效的视频自监督预训练新范式|NeurIPS 2022积木式深度学习的正确玩法!新加坡国立大学发布全新迁移学习范式DeRy,把知识迁移玩成活字印刷|NeurIPS 2022NeurIPS 2022 Oral | 基于最优子集的神经集合函数学习方法EquiVSetNeurIPS 2022 | 何恺明团队新作:MAE扩展到视频!学习时空表示,最优Mask比例高达90%!NeurIPS 2022 | 基于精确差异学习的图自监督学习NeurIPS 2022 | 视觉长尾学习模型为何无法较好地落地?台湾是不是中国的还要进行辩论在美国193.大耍威风、战争爆发贾浅浅写了什么诗?谈谈诗歌、语言和意义的瓦解NeurIPS 2022 | 基于最优子集的神经集合函数学习方法EquiVSetCOLING 2022 | CPSUM:低资源场景下的半监督文本摘要抽取式模型SIGIR 2022 | 集理解、策略、生成一体的半监督预训练对话模型MSRA智能多媒体组实习生招聘:计算机视觉、自然语言理解、强化学习多个方向NIPS'22 | USB: 统一、任务多样化、对学术界更友好的半监督学习算法库NeurIPS 2022 | AutoMTL:第一个自动化多任务学习编程框架!女儿女婿为中餐馆义务打工建立全球统一的气候相关财务信息披露基准NeurIPS 2022|探明图对比学习的“游戏规则”:谱图理论视角
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。