Redian新闻
>
NeurIPS 2023 | 模仿人类举一反三,数据集扩增新范式GIF框架来了

NeurIPS 2023 | 模仿人类举一反三,数据集扩增新范式GIF框架来了

公众号新闻

机器之心专栏

机器之心编辑部

在这篇 NeurIPS 2023 论文中,来自新加坡国立大学和字节跳动的学者们受人类联想学习的启发,提出了数据集扩增的新范式,有效地提升了深度模型在小数据场景下的性能和泛化能力,极大地降低了人工收集和标注数据的时间和成本。代码已开源。



  • 论文链接:https://browse.arxiv.org/pdf/2211.13976.pdf
  • GitHub:https://github.com/Vanint/DatasetExpansion

众所周知,深度神经网络的性能很大程度上依赖于训练数据的数量和质量,这使得深度学习难以广泛地应用在小数据任务上。例如,在医疗等领域的小数据应用场景中,人力收集和标注大规模的数据集往往费时费力。为了解决这一数据稀缺问题并最小化数据收集成本,该论文探索了一个数据集扩增新范式,旨在自动生成新数据从而将目标任务的小数据集扩充为更大且更具信息量的大数据集。这些扩增后的数据集致力于提升模型的性能和泛化能力,并能够用于训练不同的网络结构。


该工作发现只是利用现存方法无法很好地扩充数据集。(1)随机数据增强主要改变图片的表面视觉特征,但不能创造具有新物体内容的图片(如下图的荷花依然是同一个,没有新荷花的生成),因此所引入的信息量有限。更为严重的是,随机数据增强可能会裁剪医学图像的病灶(变)位置,导致样本的重要信息减少,甚至产生噪声数据。(2)直接利用预训练的生成(扩散)模型进行数据集扩增也不能很好地提升模型在目标任务上的性能。这是因为这些生成模型的预训练数据往往与目标数据存在较大的分布差异,这导致它们所生成的数据与目标任务存在一定的分布和类别差距,无法确保所生成的样本带有正确的类别标签且对模型训练有益。


为了更有效地进行数据集扩增,该工作探究了人类的联想学习:给定一个物体,人类可以利用他们累积的先验知识轻易地想象物体的不同变体,例如下图狗子在不同种类、不同颜色、不同形状或不同背景下的变体。这一想象学习的过程对于数据集扩增非常有启发性,因为它不仅是简单地扰动图片中动物体的外观,而是应用丰富的先验知识来创造具有新信息量的变体图片。


然而,我们无法直接建模人类作为先验模型来进行数据想象。但幸运地是,近期的生成模型(如 Stable Diffusion,DALL-E2)已经展现了强大的拟合大规模数据集分布的能力,能够生成内容丰富且逼真的图片。这启发了该论文使用预训练的生成模型作为先验模型,利用它们强大的先验知识来对小数据集进行高效地数据联想和扩增。


基于上述想法,该工作提出了一个新的指导式想象扩增框架(Guided Imagination Framework, GIF)。该方法能够有效提升深度神经网络在自然和医疗图片任务上的分类性能和泛化能力,并极大地减少因人工数据收集和标注所带来的巨大成本。同时,所扩增的数据集也有助于促进模型的迁移学习,并缓解长尾问题。


接下来让我们看看,这一数据集扩增新范式是怎么设计的。

方法

数据集扩增的挑战和指导标准 设计数据集扩增方法会有两个关键挑战:(1)如何使生成的样本带有正确的类别标签?(2)如何确保生成的样本带有新的信息量,从而促进模型训练?为了解决这两个挑战,该工作通过大量的实验发现了两个扩增指导标准:(1)类别一致的信息增强;(2)样本多样性提升。


方法框架 基于所发现扩增指导标准,该工作提出了指导式想象扩增框架(GIF)。对于每个输入的种子样本 x,GIF 首先利用先验生成模型的特征提取器提取样本特征 f,并对该特征进行噪音扰动:。设置噪音(z,b)最简单的方式是采用高斯随机噪声,但是它无法确保所生成的样本具有正确的类别标签并带来更多的信息量。因此,为了进行有效的数据集扩增,GIF 基于其发现的扩增指导标准对噪声扰动进行优化,即



所用到的扩增指导标准实现如下。类一致的信息量指标:;样本多样性指标:。通过最大化这两个指标,GIF 能够有效优化噪声扰动,从而生成既保持类别一致性,又带来更大信息量的样本。

实验

扩增有效性 GIF 具有更强的扩增有效性:GIF-SD 在 6 个自然数据集上平均提高了 36.9% 分类精度,并在 3 个医疗数据集上平均提高了 13.5% 分类精度。


扩增效率 GIF 具有更强的扩增有效率:在 Cars 和 DTD 数据集上,使用 GIF-SD 进行 5 倍扩增的效果甚至超过了使用随机数据增强进行 20 倍扩增的效果。


可视化结果 现有的数据增强方法无法生成新的图像内容,而 GIF 可以较好地生成带有新内容的样本。


现有的增强方法甚至裁剪医学图像的病变位置,导致样本信息减少甚至产生噪声,而 GIF 可以更好地保持它们的类别语义。


计算和时间成本 与人工数据收集和标注相比,GIF 能够极大地降低数据集扩增的时间和成本。


扩增数据的通用性 一旦完成扩增,这些数据集可以直接用于训练各种不同的神经网络模型结构。


提升模型泛化能力 GIF 有助于提升模型的分布外泛化性能(OOD generalization)。


缓解长尾问题 GIF 有助于缓解长尾问题。


安全性检测 GIF 生成的图像是安全且无害的。


基于上述实验结果,我们有理由相信通过模拟人类的类比与想象学习,该论文所设计的方法能够有效地扩增小数据集,从而提升深度神经网络在小数据任务场景上的落地和应用。





© THE END 

转载请联系本公众号获得授权

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
NeurIPS 2023 | 「解释一切」图像概念解释器来了,港科大团队出品NeurIPS 2023 | 如何从理论上研究生成式数据增强的效果?NeurIPS 2023 | FedFed:特征蒸馏应对联邦学习中的数据异构English teachers of my generation:Shen Baoqing (and Peng Wenlan)Nature:神经网络“举一反三”能力甚至超人类性能大涨20%!中科大「状态序列频域预测」方法:表征学习样本效率max|NeurIPS 2023 SpotlightNeurIPS 2023 & MICCAI 2023:可兼容软标签的语义分割损失函数NeurIPS 2023 | 全新机械手算法:辅助花式抓杯子,GTX 1650实现150fps推断Nature | 由数千种蛋白质组成的最大数据集是人类健康研究的标志性一步在Mount Rainier National Park 赏秋 (10/7/2023)NeurIPS 2023 Spotlight | 通过贝叶斯隐式表征实现数据压缩​AAAI 2024 | 首个多模态实体集扩展数据集MESED和多模态模型MultiExpan中国“X”老板VS.日本“X”逸翁「无需配对数据」就能学习!浙大等提出连接多模态对比表征C-MCR|NeurIPS 2023NeurIPS 2023 | 无需配对数据就能学习!浙大等提出连接多模态对比表征C-MCR生活里的幸运和不幸运古交在春风中苏醒(上)NeurIPS 2023 | 浙大等提出C-MCR:连接多模态对比表征,无需配对数据就能学习!35年首次证明!NYU重磅发现登Nature:神经网络具有类人泛化能力,举一反三超GPT-4NeurIPS 2023 | AI Agents先行者CAMEL:首个基于大模型的多智能体框架大数据时代下机器学习的新范式NeurIPS 2023 | 动态组合模型来应对数据分布的变化NeurIPS 2023|北京大学提出类别级6D物体位姿估计新范式,取得新SOTANeurIPS 2023 Spotlight | 面向通用决策场景的MCTS基准框架:LightZero偷鸡摸狗---暗搞台独JMT 2023NeurIPS 2023 | 北大具身智能团队提出需求驱动导航:对齐人类需求,让机器人更高效NeurIPS 2023 | SlotDiffusion: 基于Slot-Attention和扩散模型的全新生成模型NeurIPS 2023 | 无惧图像中的文字,TextDiffuser提供更高质量文本渲染NeurIPS 2023 | Backbone之战:计算机视觉任务模型大比较【周末看电影】张艺谋新片《坚如磐石》Under the Light (2023)梵高大跳科目三,只需文字+火柴人动效!可控视频生成框架来了 | AAAI 2024俄乌战况10北大全新「机械手」算法:辅助花式抓杯子,GTX 1650实现150fps推断|NeurIPS 2023神秘的大杂院(十二)一朵白色的椰叶花(下)Cell Metabol | 科学家提出人类1型糖尿病发生的新范式Nature:超越ChatGPT,思维更像人类的人工智能诞生,具备了人类举一反三的能力NeurIPS 2023 | 中科院&旷视提出DropPos:全新的自监督视觉预训练代理任务图领域首个通用框架来了!入选ICLR'24 Spotlight,任意数据集、分类问题都可搞定|来自华盛顿大学&北大&京东OpenAI内讧,奥特曼被驱逐;俄罗斯操作系统Aurora OS 5.0全新UI亮相;.NET 8正式GA | 周热点
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。