Redian新闻
>
为复杂场景而生,NTU、字节等开源大型视频目标分割数据集MOSE

为复杂场景而生,NTU、字节等开源大型视频目标分割数据集MOSE

公众号新闻

机器之心专栏

机器之心编辑部


视频目标分割 (Video Object Segmentation, VOS) 的现有 SOTA 方法在已有数据集上已经取得 90+% J&F 的优异性能,似乎已经很好地解决了这一研究问题。那么现有方法在更复杂场景中的处理能力如何呢?


为了探究这个问题,来自南洋理工大学、浙江大学、牛津大学、和字节跳动的研究者们构建了一个专门针对复杂场景的大规模视频目标分割数据集 coMplex video Object SEgmentation (MOSE)。



  • 论文地址:https://arxiv.org/abs/2302.01872

  • 项目主页:https://henghuiding.github.io/MOSE 


视频目标分割 (Video Object Segmentation, VOS) 是计算机视觉中的一个热点问题。在一段视频中,给定目标物体在视频第一帧中某些线索 (如 mask, bounding box, 或者 scribble 等形式),VOS 旨在准确地分割和追踪该目标物体,获取该物体在整个视频序列中每一帧的高质量 mask。与现有的 VOS 数据集相比,MOSE 最主要的特点是在大量复杂场景中包含了拥挤的目标群、各式各样的遮挡、消失并重现的物体、以及不明显的小物体等富有挑战的情景。因此,MOSE 可以很好地衡量 VOS 算法在复杂场景下的视频目标分割性能,并推动 VOS 在更真实场景下的应用研究。


在 MOSE 数据集上,研究者们在 4 种不同设置下对 18 种视频目标分割方法进行了广泛实验,包括 6 种使用 mask 的半监督 (semi-supervised) 方法、2 种使用 bounding box 的半监督方法、3 种多目标无监督 (unsupervised) 方法、和 7 种交互式视频分割方法。实验表明,现有方法尚不能在复杂场景下取得令人满意的结果。如在最热点的 semi-supervised VOS 任务中,现有方法的 VOS 性能从 DAVIS 和 YouTube-VOS 上的 80%~90% J&F 下降到仅 40%~50% J&F。这些实验表明,尽管当前方法在现有数据集上取得了优异的性能,但在复杂场景下的视频目标分割仍存在很多未解决的挑战,未来需要更多工作来研究和探索这些挑战。


MOSE 数据集简介


MOSE 包含共 2149 个,总时长达 443 分钟的视频,包含有 36 个类别的 5200 个物体。标注的 mask 数总计达 431,725 个。从下表中可以看出,MOSE 在标注规模和总时长上明显相较于其他数据集更大。



不仅在规模上,MOSE 在难度上也尤为突出。从表中的消失率 (Disapp. Rate) 一列来看,MOSE 中有 28.8% 的物体在至少一帧中完全消失,非常考验模型对物体的再跟踪能力。同时,从反映物体遮挡强度的 mBOR 指标来看,MOSE 视频的遮挡现象相较于其他 VOS 数据集也更加显著。


此外,在保证目标物体的多样性和复杂性的同时,MOSE 也丰富了视频长度的多样性。数据集中包含了短至 5 秒的短视频和长至 1 分钟的长视频。在保证标注帧率最低为 5fps 的基础上,数据集中还包含了很多高达 30fps 的完全标注视频,这考验模型在追踪速度方面的稳定性,也进一步提高了 MOSE 数据集的难度。


可视化


MOSE 数据集中包括大量的拥挤、消失、遮挡和非显著 / 小物体等复杂场景。下面介绍一些数据集中的典型视频。


如下视频展示了一个非常拥挤复杂但贴近现实的球赛场景。红色球员首先以背对镜头的状态被其他球员所遮挡,之后在转身后以面向镜头的状态重新出现,与蓝色球员相互遮挡,这种被遮挡前和重新出现后的巨大差别极大地增加了视频的难度。



下面的视频片段中同时包含了面积较大的物体(汽车)和面积较小的物体(行人)。对于行人来说,汽车在行驶过程中几乎将两个行人完全遮挡。而大型物体(汽车)首先被环境(树木)所遮挡,而后遮挡位于画面后方的较小物体(行人)。



如下视频展示了七只山羊大步往前跑,相互之间外观高度相似且彼此遮挡,极大增加了视频目标分割的难度。且 mask 标注质量很高,对动物的尾巴和羊角等细节都进行了精细的标注。



更多可视化片段参见项目主页。


实验


以给定第一帧 mask 的半监督 (semi-supervised) 任务为例,研究者在 MOSE 上尝试了 6 种现有的开源的 VOS 算法,结果如下表所示。可以看到 MOSE 非常具有挑战性。在之前的数据集 DAVIS 和 Youtube-VOS 上,各方法均取得了 80% J&F 以上的好成绩,近乎饱和。然而,在新的 MOSE 数据集上,各方法的性能却并不尽人意。如目前最优的方法 DeAOT 在 DAVIS 2017 上的成绩为 85.2% J&F,但在 MOSE 上却只有 59.4% J&F。实验结果表明,尽管很多方法已经在之前的基准测试中取得了出色的 VOS 性能,但在复杂场景下仍存在未解决的挑战,未来需要更多努力来探索这些挑战。



研究者基于 VOS 其他子任务:无监督视频目标分割 (Unsupervised Video Object Segmentation) 以及交互式视频目标分割 (Interactive Video Object Segmentation) 也进行了实验,更多实验结果请见论文。


总结


研究者构建了一个名为 MOSE 的大规模复杂场景视频目标分割数据集,以推动 VOS 在更真实复杂场景下的应用研究。基于提出的 MOSE 数据集,作者对现有 VOS 方法进行了基准测试并进行了全面比较。发现在拥挤、消失、遮挡、以及非显著 / 小物体等复杂场景频繁出现时,会给现有算法带来了巨大挑战,期待 MOSE 能够启发更多研究人员进行复杂场景下的视频目标理解的研究。


更多细节请参考论文原文。



© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
伯克利开源首个泊车场景下的高清数据集和预测模型,支持目标识别、轨迹预测阿里、字节奔欧美,B站、唯品会抢滩东南亚;TikTok没完成120亿美金收入目标,拼多多赶上“好时候”丨Going GlobalHinton组新作:基于大型全景掩码的实例分割框架,图像视频场景丝滑切换AYANEO OS 掌机系统 2023 年上线:基于 Linux 系统,为复古游戏优化CV 又卷起来了!Meta AI 开源万物可分割 AI 模型,11 亿 + 掩码数据集可提取寅冬红叶花水木直击指标分析与管理痛点,一文详解Kyligence Zen产品设计与技术实践SeaTunnel,Apache基金会中第一个诞生自中国的数据集成平台项目分割一切又一力作!北京智源提出通用分割模型SegGPT南洋理工等开源MOSE:复杂场景下的大型视频目标分割数据集Linux 发行版新秀 Vanilla OS 公开发布:基于 Ubuntu、系统核心 “不可变”字节等不及“吃”外卖了Belmont公私校大对比:Belmont Hill vs Belmont High走出富士康,才能走向新天地!搞大了,北京群众心情极为复杂!AI分割一切!智源提出通用分割模型SegGPT,「一通百通」的那种2天后,让我们一起成为复杂世界的明白人从ETL走向EtLT架构,下一代数据集成平台Apache SeaTunnel核心设计思路解析开源大模型到底开源什么?红果冬青黑铁黐Meta「分割一切」超进化版来了!IDEA领衔国内顶尖团队打造:检测、分割、生成一切,狂揽2k星真的这么丝滑吗?Hinton组提出基于大型全景掩码的实例分割框架,图像视频场景丝滑切换CVPR 2023 | Uni3D: 首个多数据集3D目标检测框架前沿开源技术领域解读——开源大数据前沿开源技术领域解读——开源大前端使用 PowerFlex 在 Kubernetes 平台上部署 Microsoft SQL Server 大数据集群面向现实世界场景,多语言大数据集PRESTO来了CVPR 2023 | 港中大&IDEA开源首个大规模全场景人体数据集Human-Art“接骨院”VS“足浴按摩”咀外文嚼汉字(191)“茶之湯”、 “茶汤”Ubuntu Cinnamon 正式成为 Ubuntu 官方风味版 | Linux 中国CentOS停服、Ubuntu断供俄罗斯 | 开源操作系统领域解读美团、字节、百度跑步入局,AI产品有多香?AdaSeq基础能力 | 30+NER数据汇总,涉及多行业、多模态命名实体识别数据集收集英特尔、字节跳动的生态共建:重新定义“云固件”
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。