Redian新闻
>
Hinton组新作:基于大型全景掩码的实例分割框架,图像视频场景丝滑切换

Hinton组新作:基于大型全景掩码的实例分割框架,图像视频场景丝滑切换

公众号新闻


©作者 | 机器之心编辑部

来源 | 机器之心


本文的创新点一方面在于能够在大型全景掩码上训练扩散模型,一方面在于可以同时适配图片和流媒体场景。


全景分割是一项基本的视觉任务,该任务旨在为图像的每个像素指定语义标签和实例标签。语义标签描述每个像素的类别(例如天空、竖直物体等),实例标签为图像中的每个实例提供唯一的 ID(以区分同一类别的不同实例)。该任务结合了语义分割和实例分割,提供了关于场景的丰富语义信息。
虽然语义标签的类别是先验固定的,但分配给图像中对象的实例 ID 是可以互相交换同时不影响识别的。例如,交换两辆车的实例 ID 不会影响结果。因此,经过训练以预测实例 ID 的神经网络应该能够学习从单个图像到多个实例 ID 分配的一对多映射。
一对多映射的学习具有挑战性,传统方法通常利用多个阶段的管道,包括对象检测、分割、合并多个预测。最近,基于可微二分图匹配,一些学者提出了端到端方法,能够有效地将一对多映射转换为基于识别匹配的一对一映射。然而,这些方法仍然需要定制的架构和专门的损失函数,以及用于全景分割任务的内置归纳偏置。
最近的通用视觉模型,例如 Pix2Seq、OFA、UViM 和 Unified I/O,提倡通用的、不限制任务的框架来实现泛化任务,同时还能比以前的模型简单得多。例如,Pix2Seq 根据图像生成一系列具有语义意义的序列,来完成一些核心的视觉任务,并且这些模型基于 Transformers 来训练自回归模型。
在一篇新的论文中,谷歌大脑的 Ting Chen、Geoffrey Hinton 等研究者遵循相同的理念,从条件离散数据生成的角度理解全景分割任务问题。

论文标题:

A Generalist Framework for Panoptic Segmentation of Images and Videos

论文链接:

https://arxiv.org/pdf/2210.06366.pdf


如图 1 所示,研究者为全景掩码设计了一个生成模型,并为输入到模型的每一张图片都生成一组离散 token。使用者只需将过去帧的预测作为附加条件信号,就可以将此模型应用于视频数据(在线数据 / 流媒体)。这样一来,模型就可以自动地学习跟踪和分割对象。
全景分割的生成式建模非常具有挑战性,因为全景掩码是离散的,或者说是有类别的,并且模型可能非常大。例如,要生成 512×1024 的全景掩码,模型必须生成超过 1M 的离散标记(语义标签和实例标签)。这对于自回归模型来说开销还是比较昂贵的,因为 token 本质上是顺序的,很难随着输入数据的规模变化而变化。
扩散模型更擅长处理高维数据,但它们最常应用于连续域而不是离散域。通过用模拟位表示离散数据,本文作者表明可以直接在大型全景掩码上训练扩散模型,而无需学习潜在空间。
通过广泛的实验,研究者们证明了他们的通用法可以在类似环境中与最先进的专家方法一较高下。


模型架构
扩散模型采样是迭代进行的,因此在推理过程中必须多次运行网络的前向传播。因此,如图 2 所示,研究者有意将网络分成两个组件:1)图像编码器;2) 掩码解码器。前者将原始像素数据映射到高级表示向量,然后掩码解码器迭代地读出全景掩码。
像素 / 图像编码器
编码器是将原始图像映射到中的特征图的网络,其中 H’和 w’是全景遮罩的高度和宽度。全景遮罩可以与原始图像的大小相同或小一点。在这项工作中,研究者们使用 ResNet 作为骨干网络,然后使用 Transformer 的编码器层作为特征提取器。
为了确保输出的特征图具有足够的分辨率,并包含不同尺度的特征,受 U-Net 和特征金字塔网络的启发,研究者使用具有双边连接和上采样操作的卷积从不同的分辨率来合并特征。虽然可以使用更复杂的编码器,这样可以使用一些架构设计方面的最新进展,但这不是网络模型的主要关注点,所以研究者只是使用较为简单的特征提取器来说明其在模型中的作用。
掩码解码器
解码器在模型推理过程中基于图像特征,迭代地细化全景掩码。具体来说,研究者使用的掩码解码器是 TransUNet。该网络将来自编码器的图像特征图和噪声掩码(随机初始化或迭代地来自编码过程)的连接作为输入,并输出对掩码的精确预测。解码器与用于图像生成和图像到图像转换的标准 U-Net 架构之间的一个区别是,在上采样之前,本文使用的 U-Net 顶部使用了带有交叉注意力层的 transformer 解码器层来合并编码的图像特征。
在视频模态下的应用
研究者将图像条件下的全景遮罩建模为:p(m|x)。基于给定视频的三维掩码(有一个额外的时间维度),本文的模型就可以直接适用于视频全景分割。为了适应在线 / 流媒体的视频设置,可以改用 p(m_t|x_t,m_(t-1),m_(t-k))建模,从而基于当前的图像和上一时刻的掩码生成新的全景掩码。
如图 5 所示,这一变化可以通过将过去的全景掩码 (m_(t-1),m_(t-k)) 与现有的噪声掩码连接起来来实现。除了这个微小的变化之外,其他方面都与视频基础模型(p(m|x))相同。这个模型很简单,对图像全景模型进行微调就可以应用到视频场景里。


实验结果
本文与两个系列的最先进的方法进行了比较,即专家方法和通用方法。表 1 总结了在 MS-COCO 数据集上的结果。Pix2Seq-D 在基于 ResNet-50 的主干上的泛化质量(PQ)与最先进的方法相比有一定的竞争力。与最近的其他通用模型如 UViM 相比,本文的模型表现明显更好,同时效率更高。
表 2 将 Pix2Seq-D 与无监督视频物体分割最先进的方法在 DAVIS 数据集上进行了比较,指标使用的是标准的 J&F。值得注意的是基线不包括其他通用模型,因为它们不能直接适用于该任务。本文的方法在没有专门设计的情况下取得了与最先进的方法相同的结果。
图 8、9 和 10 显示了 Pix2Seq-D 在 MS-COCO、Cityscape 和 DAVIS 上的示例结果。


更多阅读



🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧


·

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
放开,不是由困难模式切换到岁月静好,而是切换到另一种困难模式!南洋理工等开源MOSE:复杂场景下的大型视频目标分割数据集扩散模型再发力!Hinton团队提出:图像和视频全景分割新框架这个开源太强了!智能标注10倍速、精准人像分割、3D医疗影像分割!一个基于Transformer的深度学习架构,在基因调控中组蛋白代码的定量破译方面性能超群Flag Boot:基于范畴论的新一代极简开源微服务框架Jay Alammar再发新作:超高质量图解Stable Diffusion,看完彻底搞懂「图像生成」原理一颗GPU,秒出3D模型!OpenAI重磅新作:Point-E用文本即可生成三维点云模型Linux 发行版新秀:基于 Ubuntu、系统核心 “不可变”为复杂场景而生,NTU、字节等开源大型视频目标分割数据集MOSE案例分享:企业主申请美国EB-1A丝滑获批,一步到位永久绿卡!NeurIPS 2022 | 香港理工提出OGC:首个无监督3D点云物体实例分割算法图像视频编码新纪元,体验升级&技术变革,AR及其关键技术......谷歌新作:基于扩散模型的视频生成何时起,“骰子”不读shǎi,改读tóu了?名声大噪的YOLO迎来YOLOv8,迅速包揽目标检测、实例分割新SOTALinux 发行版新秀 Vanilla OS 公开发布:基于 Ubuntu、系统核心 “不可变”CVPR 2023 Workshop | 首个大规模视频全景分割比赛中西文明的交流与撞击ICLR 2022 | DBD:基于分割后门训练过程的后门防御方法【万圣节】暖场 《可念不可说》+故事和字谜其名“三立” :三次倒下,三次站立超高分论文!视觉新范式!COCs:将图像视为点集天赋“易昺(bǐng)”,创造历史!USB接口之争:基于竞争的封闭,基于计划的开放,哪个更好?谷歌出品:基于大型语言模型的语义解析方法Linux发行版新秀:基于Ubuntu、系统核心 “不可变”非结构化剪枝算法的巧妙利用:非结构化掩码的后处理华罗庚 并不如意的人生教你怎么成为黑客:DoS攻击类型入门指导与实例分析为小事吵架,警察上门,可能还要上庭香港内地无缝切换!丝滑过关还得靠这个!真的这么丝滑吗?Hinton组提出基于大型全景掩码的实例分割框架,图像视频场景丝滑切换围观:基金中的"爱马仕"! 私募投资基金全景图
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。