Redian新闻
>
视频分割大结局!浙大最新发布SAM-Track:通用智能视频分割一键直达

视频分割大结局!浙大最新发布SAM-Track:通用智能视频分割一键直达

公众号新闻



  新智元报道  

编辑:好困
【新智元导读】只需要一句话、一个点击、一支画笔,就能在任意场景分割追踪任意物体!

近期,浙江大学ReLER实验室将SAM与视频分割进行深度结合,发布Segment-and-Track Anything (SAM-Track)。
SAM-Track赋予了SAM对视频目标进行跟踪的能力,并支持多种方式(点、画笔、文字)进行交互。
在此基础上,SAM-Track统一了多个传统视频分割任务,达成了一键分割追踪任意视频中的任意目标,将传统视频分割外推至通用视频分割。
SAM-Track具有卓越的性能,在复杂场景下仅需单卡就能高质量地稳定跟踪数百个目标。

项目地址:https://github.com/z-x-yang/Segment-and-Track-Anything

论文地址:https://arxiv.org/abs/2305.06558

效果展示


SAM-Track支持语言输入作为Prompt。比如,给定类别文本「熊猫」,便可一键实例级分割追踪所有属于「熊猫」这一类别的目标。
也可进一步给出更详细的描述,比如输入文字「最左边的熊猫」,SAM-Track可以定位至特定目标进行分割追踪。
相较于传统视频追踪算法,SAM-Track的另一个强大之处在于可对大量目标同时进行跟踪分割,并自动检测新出现的物体。
SAM-Track还支持多种交互方式组合使用,用户可根据实际需求搭配。比如使用画笔来框定与人体紧密连接的滑板,防止分割多余物体,而后使用点击选择人体。
全自动视频目标分割与追踪自然也不在话下,各种应用场景包括街景、航拍、AR、动画、医学图像等,均可一键分割追踪并自动检测新出现的物体。
如果对自动分割结果不满意,用户可在此基础上进行编辑修正,例如使用点击来修正过分割的电车。
同时最新版本的SAM-Track支持对追踪结果进行在线浏览,可选择中间任意一帧的分割结果进行修改和新增目标,并再次追踪。
为了方便用户线上体验,项目提供了WebUI,可通过Colab一键部署:

模型组成


SAM-Track模型基于ECCV'22 VOT Workshop四个赛道的冠军方案DeAOT。
DeAOT是一个高效的多目标VOS模型,在给定首帧物体标注的情况下,可以对视频其余帧中的物体进行追踪分割。
DeAOT采用一种识别机制,将一个视频中的多个目标嵌入到同一高维空间中,从而实现了同时对多个物体进行追踪。
DeAOT在多物体追踪方面的速度表现能够与其他针对单个物体追踪的VOS方法相媲美。
此外,通过基于分层的Transformer的传播机制,DeAOT更好地聚合了长时序和短时序信息,表现出了优异的追踪性能。
由于DeAOT需要参考帧的标注来初始化,为了提高便捷性,SAM-Track使用了最近在图像分割领域大放异彩的Segment Anything Model(SAM)模型来获取标注信息。
利用SAM出色的零样本迁移能力,以及多种交互方式,SAM-Track能高效地为DeAOT获取高质量的参考帧标注信息。
虽然SAM模型在图像分割领域表现出色,但它无法输出语义标签,且文本提示也不能很好地支持Referring Object Segmentation及其他依赖深层语义理解的任务。
因此,SAM-Track模型进一步集成了Grounding-DINO,实现了高精度的语言引导的视频分割。Grounding DINO是一个开放集合目标检测模型,具有很好的语言理解能力。
根据输入的类别或目标对象的详细描述,Grounding-DINO可以检测到目标并返回位置框。

SAM-Track模型架构


如下图所示,SAM-Track模型支持了三种物体跟踪模式,分别为交互跟踪模式、自动跟踪模式以及融合模式。
对于交互跟踪模式,SAM-Track模型首先会应用SAM,在参考帧中利用点击或画框的方式选中目标,直到得到用户满意的交互分割结果。
如果想要实现语言引导的视频物体分割,SAM-Track则会调用Grounding-DINO根据输入的文本,先得到目标物体的位置框,并在此基础上通过SAM得到感兴趣物体的分割结果。
最后DeAOT将交互分割结果作为参考帧,对选中的目标进行追踪。在追踪的过程中,DeAOT会将过去帧中的视觉嵌入和高维ID嵌入分层传播到当前帧中,实现逐帧追踪分割多个目标对象。因此,SAM-Track能过支持多模态的交互方式来追踪分割视频中的感兴趣物体。
然而,交互跟踪模式无法处理视频中出现的新出现的物体。限制了SAM-Track在特定领域的应用,例如,自动驾驶,智慧城市等。
为了进一步拓展SAM-Track的应用范围和性能,SAM-Track实现了自动跟踪模式,对视频中出现的新物体进行追踪。
自动跟踪模式通过Segment Everything和Object of Interest Segmentation两种方式来获得每n帧中新出现的物体的注释。对于新出现的物体的ID分配问题,SAM-Track采用了比较掩码模块(CMR)来确定新的对象的ID。
融合模式则是把交互跟踪模式和自动跟踪模式相结合。通过交互式跟踪模式用户可以很方便地获取视频中第一帧的注释,而自动跟踪模式则可以处理视频后续帧中出现的未被选中的新对象。追踪方法的组合扩大了SAM-Track的应用范围,增加了SAM-Track的实用性。
参考资料:
https://github.com/z-x-yang/Segment-and-Track-Anything




微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
华人团队颠覆CV!SEEM完美分割一切爆火,一键分割「瞬息全宇宙」27年终于等到了!《灌篮高手》迎来大结局!结局竟让人....Meta新模型“分割一切”:抠图完成究极进化,计算机视觉迎来GPT-3时刻CV不存在了?Meta发布「分割一切」AI 模型,CV或迎来GPT-3时刻CV不存在了?Meta发布"分割一切"AI模型,CV或迎来GPT-3时刻!比SAM分割一切更全能!华人团队提出SEEM:通用分割新模型3D版「分割一切」来了!NUS华人团队最新模型,单视图重建3D,又快又准“鼠头鸭脖”大结局!记住这个男人,问问他为什么要撒谎?对付中国,日本拉上沙特,沙特居然配合!国人提前写好大结局!《灌篮高手》迎来大结局!这套鞋盒版典藏漫画,请你共赴青春之约西天取经之后,师徒四人都去哪了?《西游记》终于迎来大结局!通用视觉GPT时刻来临?智源推出通用分割模型SegGPT(古詩詞英譯) 梅花 - 王安石〔宋代〕大结局!“牵手门”董小姐和胡总的下场,一个天上,一个地下!重磅!CV不存在了?CV或迎来GPT-3时刻,Meta发布「分割一切」AI 模型国民警卫队会保卫特朗普吗?分割一切后,Segment Anything又能分辨类别了:Meta/UTAustin提出全新开放类分割模型5030 血壮山河之武汉会战 九江战役 5CVPR 2023 | 浙大&南洋理工提出PADing:零样本通用分割框架微软研究院:人工通用智能的星星之火-GPT-4的早期实验(101页)分割一切还不够,还要视频跟踪一切,《清明上河图》也能轻松拿下金融版《纸牌屋》,高盛CEO出演!这部商科生必看美剧迎来史上最强大结局!分割一切后,SAM又能分辨类别了:Meta/UTAustin提出全新开放类分割模型分割一切深度图!港科技、南洋理工等开源「SAD」:根据几何信息分割图像线上点播|一键直达的52部高清官摄剧目,当然还有中文字幕!Meta「分割一切」超进化版来了!IDEA领衔国内顶尖团队打造:检测、分割、生成一切,狂揽2k星分割一切又一力作!北京智源提出通用分割模型SegGPT「分割一切」视频版来了:点几下鼠标,动态的人、物就圈出来了这才是西游记真正的大结局!AI分割一切!智源提出通用分割模型SegGPT,「一通百通」的那种人类最终将毁于AI大结局!商鞅为什么必须死?一次性分割一切,比SAM更强,华人团队的通用分割模型SEEM来了分割一切还不够,还要检测一切、生成一切,SAM二创开始了《花心》
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。