Redian新闻
>
CVPR 2024 | 零样本6D物体姿态估计框架SAM-6D,向具身智能更进一步

CVPR 2024 | 零样本6D物体姿态估计框架SAM-6D,向具身智能更进一步

公众号新闻

机器之心专栏

机器之心编辑部


物体姿态估计在许多现实世界应用中起到至关重要的作用,例如具身智能、机器人灵巧操作和增强现实等。


在这一领域中,最先受到关注的任务是实例级别 6D 姿态估计,其需要关于目标物体的带标注数据进行模型训练,使深度模型具有物体特定性,无法迁移应用到新物体上。后来研究热点逐步转向类别级别 6D 姿态估计,用于处理未见过的物体,但要求该物体属于已知的感兴趣类别。


零样本 6D 姿态估计是一种更具泛化性的任务设置,给定任意物体的 CAD 模型,旨在场景中检测出该目标物体,并估计其 6D 姿态。尽管其具有重要意义,这种零样本的任务设置在物体检测和姿态估计方面都面临着巨大的挑战。


图 1. 零样本 6D 物体姿态估计任务示意


最近,分割一切模型 SAM [1] 备受关注,其出色的零样本分割能力令人瞩目。SAM 通过各种提示,如像素点、包围框、文本和掩膜等,实现高精度的分割,这也为零样本 6D 物体姿态估计任务提供了可靠的支撑, 展现了其前景的潜力。


因此,来自跨维智能、香港中文大学(深圳)、华南理工大学的研究人员提出了一个新颖的零样本 6D 物体姿态估计框架 SAM-6D。该论文目前已被 CVPR 2024 接受。



  • 论文链接: https://arxiv.org/pdf/2311.15707.pdf

  • 代码链接: https://github.com/JiehongLin/SAM-6D


SAM-6D 通过两个步骤来实现零样本 6D 物体姿态估计,包括实例分割和姿态估计。相应地,给定任意目标物体,SAM-6D 利用两个专用子网络,即实例分割模型(ISM)和姿态估计模型(PEM),来从 RGB-D 场景图像中实现目标;其中,ISM 将 SAM 作为一个优秀的起点,结合精心设计的物体匹配分数来实现对任意物体的实例分割,PEM 通过局部到局部的两阶段点集匹配过程来解决物体姿态问题。SAM-6D 的总览如图 2 所示。


图 2. SAM-6D 总览图


总体来说,SAM-6D 的技术贡献可概括如下:


  • SAM-6D 是一个创新的零样本 6D 姿态估计框架,通过给定任意物体的 CAD 模型,实现了从 RGB-D 图像中对目标物体进行实例分割和姿态估计,并在 BOP [2] 的七个核心数据集上表现优异。

  • SAM-6D 利用分割一切模型的零样本分割能力,生成了所有可能的候选对象,并设计了一个新颖的物体匹配分数,以识别与目标物体对应的候选对象。

  • SAM-6D 将姿态估计视为一个局部到局部的点集匹配问题,采用了一个简单但有效的 Background Token 设计,并提出了一个针对任意物体的两阶段点集匹配模型;第一阶段实现粗糙的点集匹配以获得初始物体姿态,第二阶段使用一个新颖的稀疏到稠密点集变换器以进行精细点集匹配,从而对姿态进一步优化。


实例分割模型 (ISM)


SAM-6D 使用实例分割模型(ISM)来检测和分割出任意物体的掩膜。


给定一个由 RGB 图像表征的杂乱场景,ISM 利用分割一切模型(SAM)的零样本迁移能力生成所有可能的候选对象。对于每个候选对象,ISM 为其计算一个物体匹配分数,以估计其与目标物体之间在语义、外观和几何方面的匹配程度。最后通过简单设置一个匹配阈值,即可识别出与目标物体所匹配的实例。


物体匹配分数的计算通过三个匹配项的加权求和得到:


语义匹配项 —— 针对目标物体,ISM 渲染了多个视角下的物体模板,并利用 DINOv2 [3] 预训练的 ViT 模型提取候选对象和物体模板的语义特征,计算它们之间的相关性分数。对前 K 个最高的分数进行平均即可得到语义匹配项分数,而最高相关性分数对应的物体模板视为最匹配模板。


外观匹配项 —— 对于最匹配模板,利用 ViT 模型提取图像块特征,并计算其与候选对象的块特征之间的相关性,从而获得外观匹配项分数,用于区分语义相似但外观不同的物体。


几何匹配项 —— 鉴于不同物体的形状和大小差异等因素,ISM 还设计了几何匹配项分数。最匹配模板对应的旋转与候选对象点云的平均值可以给出粗略的物体姿态,利用该姿态对物体 CAD 模型进行刚性变换并投影可以得到边界框。计算该边界框与候选边界框的交并比(IoU)则可得几何匹配项分数。


姿态估计模型 (PEM)


对于每个与目标物体匹配的候选对象,SAM-6D 利用姿态估计模型(PEM)来预测其相对于物体 CAD 模型的 6D 姿态。 


将分割的候选对象和物体 CAD 模型的采样点集分别表示为 ,其中 N_m 和 N_o 表示它们点的数量;同时,将这两个点集的特征表示为,C 表示特征的通道数。PEM 的目标是得到一个分配矩阵,用于表示从 P_m 到 P_o 之间的局部到局部对应关系;由于遮挡的原因,P_o 只部分与匹配 P_m,而由于分割不准确性和传感器噪声,P_m 也只部分与匹配 P_o。


为了解决两个点集非重叠点的分配问题,ISM 为它们分别配备了 Background Token,记为  和 ,则可以基于特征相似性有效地建立局部到局部对应关系。具体来说,首先可以计算注意力矩阵如下:



接着可得分配矩阵



 和  分别表示沿着行和列的 softmax 操作, 表示一个常数。 中的每一行的值(除了首行),表示点集 P_m 中每个点 P_m 与背景及 P_o 中点的匹配概率,通过定位最大分数的索引,则可以找到与 P_m 匹配的点(包括背景)。


一旦计算获得  ,则可以聚集所有匹配点对 {(P_m,P_o)} 以及它们的匹配分数,最终利用加权 SVD 计算物体姿态。


图 3. SAM-6D 中姿态估计模型 (PEM) 的示意图


利用上述基于 Background Token 的策略,PEM 中设计了两个点集匹配阶段,其模型结构如图 3 所示,包含了特征提取、粗略点集匹配和精细点集匹配三个模块。


粗糙点集匹配模块实现稀疏对应关系,以计算初始物体姿态,随后利用该姿态来对候选对象的点集进行变换,从而实现位置编码的学习。


精细点集匹配模块结合候选对象和目标物体的采样点集的位置编码,从而注入第一阶段的粗糙对应关系,并进一步建立密集对应关系以得到更精确的物体姿态。为了在这一阶段有效地学习密集交互,PEM 引入了一个新颖的稀疏到稠密点集变换器,它实现在密集特征的稀疏版本上的交互,并利用 Linear Transformer [5] 将增强后的稀疏特征扩散回密集特征。


实验结果


对于 SAM-6D 的两个子模型,实例分割模型(ISM)是基于 SAM 构建而成的,无需进行网络的重新训练和 finetune,而姿态估计模型(PEM)则利用 MegaPose [4] 提供的大规模 ShapeNet-Objects 和 Google-Scanned-Objects 合成数据集进行训练。


为验证其零样本能力,SAM-6D 在 BOP [2] 的七个核心数据集上进行了测试,包括了 LM-O,T-LESS,TUD-L,IC-BIN,ITODD,HB 和 YCB-V。表 1 和表 2 分别展示了不同方法在这七个数据集上的实例分割和姿态估计结果的比较。相较于其他方法,SAM-6D 在两个方法上的表现均十分优异,充分展现其强大的泛化能力。


表 1. 不同方法在 BOP 七个核心数据集上的实例分割结果比较


表 2. 不同方法在 BOP 七个核心数据集上的姿态估计结果比较


图 4 展示了 SAM-6D 在 BOP 七个数据集上的检测分割以及 6D 姿态估计的可视化结果,其中 (a) 和 (b) 分别为测试的 RGB 图像和深度图,(c) 为给定的目标物体,而 (d) 和 (e) 则分别为检测分割和 6D 姿态的可视化结果。


图 4. SAM-6D 在 BOP 的七个核心数据集上的可视化结果。


关于 SAM-6D 的更多实现细节, 欢迎阅读原论文.


参考文献:

[1] Alexander Kirillov et. al.,“Segment anything.”

[2] Martin Sundermeyer et. al.,“Bop challenge 2022 on detection, segmentation and pose estimation of specific rigid objects.”

[3] Maxime Oquab et. al.,“Dinov2: Learning robust visual features without supervision.”

[4] Yann Labbe et. al.,“Megapose: 6d pose estimation of novel objects via render & compare.”

[5] Angelos Katharopoulos et. al., “Transformers are rnns: Fast autoregressive

transformers with linear attention.”




© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
CVPR 2024满分论文,英伟达开源BOP排行榜6D物体姿态第一名方法北京海淀打响具身智能争夺战:公布三年行动方案,部署六大行动每周一新 2024《深处的语言》的简评——By 车邻具身智能占领中国硅谷?1.23万AI学者集结海淀,填补全球百亿人形机器人空缺PRO | Agent 爆火之后,具身智能才是 AI 下一站?CVPR 2024 | 文本一键转3D数字人骨骼动画,阿尔伯塔大学提出MoMask框架7030 血壮山河之枣宜会战 “扑朔迷离”南瓜店 73D版Sora来了?UMass、MIT等提出3D世界模型,具身智能机器人实现新里程碑EmbodiedGPT一作穆尧:具身智能大模型与通用机器人系统 | GenAICon 2024ICLR 2024 | AnomalyCLIP:零样本异常检测新范式美坛活动【Poem Reading Tuesday】My Doggy Ate My Essay by Darren Sardel斯坦福和OpenAI提出meta-prompting,最强零样本prompting技术诞生了2024 新一批裁员浪潮,你的公司上榜了吗?CVPR 2024 | 多模态合作学习的新视角:样本级模态的评估与协同ICLR 2024 | 跨领域准确进行零样本异常检测,浙大等提出AnomalyCLIPCVPR 2024 | SAM-6D:分割一切遇见零样本6D位姿估计健康投资项目总结具身智能离现实有多远:热潮、泡沫、技术前沿、商业化 | 峰瑞研究所向完全自主性更进一步,清华、港大全新跨任务自我进化策略让智能体学会「以经验为鉴」100%合成数据实现99.9%抓取成功率,通用具身智能技术公司「跨维智能」完成战略轮融资|36氪首发具身智能最佳形态是什么?它是通往AGI必由之路?八位头部玩家、学者现身说法CVPR 2024 | 北大提出HoT:高效3D人体姿态估计新框架CVPR 2024高分论文:全新生成式编辑框架GenN2N,统一NeRF转换任务博士申请 | 清华大学交叉信息院MARS Lab招收具身智能/多模态方向博士生AI Pioneers|星海图高继扬:人形机器人不是具身智能的唯一答案CVPR 2024 | 让视频姿态Transformer变得飞速,北大提出高效三维人体姿态估计框架HoT生成式AI大会沸腾北京!从Sora到具身智能,25位大佬密集输干货让AI进入物理世界,首届中国具身智能大会展望智能新纪元具身智能的未来ICRA 2024:「具身智能」热度飙升,「学习」成机器人行业共识《华灯初上》&《一程山路》习总说,上海人“不粘人”;其实,上海,不粘中国CVPR 2024 | 无参数无训练也能大幅涨点!港城大等提出全新小样本3D分割模型CVPR 2024 | 面部+肢体动画,一个框架搞定从音频生成数字人表情与动作庐山烟雨浙江潮空间智能:能否成为具身智能技术的下一个里程碑?大模型助力具身智能、电池研发与蛋白质研究,讯飞、深势科技、字节专家齐聚分享|AIConSabalenka vs. Zheng: Australian Open 2024 women's final倒计时一周!首届中国具身智能大会(CEAI 2024)日程重磅发布!
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。