Redian新闻
>
CVPR 2023最佳论文候选!真实高精3D物体数据集OmniObject3D

CVPR 2023最佳论文候选!真实高精3D物体数据集OmniObject3D

公众号新闻

导读

为了促进真实世界中感知、重建和生成领域的发展,我们提出了 OmniObject3D,一个高质量的大类别真实三维物体数据集。本数据集有三个主要优势:1)类别丰富:覆盖 200 余个类别的约 6K 个三维物体数据;2)标注丰富:包括了高精表面网格、点云、多视角渲染图像,和实景采集的视频;3)真实扫描:专业的扫描设备保证了物体数据的精细形状和真实纹理。


OmniObject3D 是目前学界最大的真实世界三维扫描模型数据集,为未来的三维视觉研究提供了广阔的空间。利用该数据集,我们探讨了点云识别、神经渲染、表面重建、三维生成等多种学术任务的鲁棒性和泛化性,提出了很多有价值的发现,并验证了其从感知、重建、到生成领域的开放应用前景。我们希望 OmniObject3D 以及其对应的 benchmarks 能够为学术研究和工业应用带来新的挑战和机会。作为 CVPR 2023 的投稿,我们收到了 4 位审稿人的一致满分评价,并获推 CVPR Award Candidate(top 12 / 9155)


论文名称:

OmniObject3D: Large-Vocabulary 3D Object Dataset for Realistic Perception, Reconstruction and Generation




背景介绍


面向真实 3D 物体的感知、理解、重建与生成是计算机视觉领域一直倍受关注的问题,也在近年来取得了飞速的进展。然而,由于社区中长期缺乏大规模的实采 3D 物体数据库,大部分技术方法仍依赖于 ShapeNet[1] 等仿真数据集。再者,仿真数据与真实数据之间的外观和分布差距巨大,这大大限制了它们在现实生活中的应用。


为了解决这一困难,近年来也有一些优秀的工作如 CO3D[2] 等从视频/多视角图片中寻求突破点,并利用 SfM 的方式重建 3D 点云,然而这种方式得到的点云往往难以提供完整、干净、精准的 3D 表面和纹理。因此,社区迫切需要一个大规模且高质量的真实世界 3D 物体扫描数据集,这将有助于推进许多3D视觉任务和下游应用。


仿真数据与真实扫描数据的对比:仿真数据的纹理和几何往往比较简单且失真。


多视角图片重建点云与真实扫描数据的对比。重建点云往往含有噪声,且无法恢复精细的表面与纹理,在没有拍摄到的位置存在大面积空洞。


数据集特点


OmniObject3D 为每一个物体提供了四种模态信息,包括:带纹理的高精模型、点云、多视角渲染图像、实景拍摄的环绕视频。对于每个拍摄的视频,我们平均抽取了 200 帧,并提供前景掩码和 SfM 重建的相机位姿和稀疏点云。


模态示例

文件层级


数据集的整体类别内物体数量呈长尾分布,与 ImageNet[3]、COCO[4]、LVIS[5] 和 ShapeNet[1] 等热门 2D 及 3D 数据集中的常见类别有高度共享。


每个类别内物体数量分布图


下游应用 


OmniObject3D 为学界带来了广泛的探索空间,在本文中,我们选取了四个下游任务进行评估与分析。


任务一:

点云分类鲁棒性(Point Cloud Classification Robustness)


物体点云分类是 3D 感知中最基本的任务之一。在本节中,我们展示了 OmniObject3D 如何通过解耦 out-of-distribution styles & out-of-distribution corruptions 来实现更全面的点云分类的鲁棒性分析。


OmniObject3D 提供了一个干净的真实世界物体点云数据集,使得能够针对 OOD styles & OOD corruptions 的鲁棒性进行细粒度分析。


具体来说,1)CAD 模型与真实扫描模型之间的差异引入了 OOD styles;2)常见点云破坏因子产生了 OOD corruptions。


在之前的研究工作中,含噪的真实物体数据集如 ScanObjectNN[6] 将两种情况藕合起来,无法实现解耦分析;主动加入破坏因子的仿真数据集如 ModelNet-C[7] 则仅仅反映了第二种情况。OmniObject3D 则具备将两种情况解耦分析的要素。


我们对十种最常见的点云分类模型进行了测试,并揭示了其与 ModelNet-C 数据集中结论的异同。在应对这两个挑战时,如何实现一个真正鲁棒的点云感知模型仍需更加深度的探索。


点云分类鲁棒性实验结果


任务二:

新视角合成(Novel View Synthesis)


自 NeRF[8] 提出以来,新视角合成一直是领域内的一个热门方向。


我们在 OmniObject3D 上研究了两种赛道下的新视角合成方法:

1)利用密集视角图片输入,对单一场景进行优化训练;

2)挖掘数据集中不同场景之间的先验,探索类 NeRF 模型的泛化能力。


首先,对于单场景优化的模型,我们观察到基于体素的方法会更加擅长建模高频纹理信息,而基于隐式模型的方法则相对更能抵抗表面凹陷或弱纹理等容易产生几何歧义的情况。


数据集中物体多变而复杂的形状和外观为这项任务提供了一个全新的评估基准。


多个常见方法的单场景优化效果示例


相对于拟合的单个场景的模型,跨场景可泛化框架在本数据集上的表现则更令人期待。网络从很多同类别、甚至跨类别的数据中学习到可以泛化的信息,即可对于一个全新场景的稀疏视角输入做出新视角预测。


实验表明,作为一个几何和纹理信息丰富的数据集,OmniObject3D 有助于促使模型学到对新物体或甚至新类别的泛化能力。


泛化性模型效果示例


任务三:

表面重建(Surface Reconstruction)


除了新视角合成外,如果能恢复物体的显式表面,将更加有助于下游应用的开发。同时,我们的数据具备精准且完整的三维表面,能够充分支持表面重建精度的评测需要。


类似的,我们也为表面重建任务设置了两条赛道:

1)稠密视角采样下的表面重建;

2)稀疏视角采样下的表面重建。


稠密视角下表面重建结果展示了数据集内几何形状的显著多样性。精准的扫描使得我们能够使用 Chamfer Distance 作为重建精度的度量。将类别划分为三个“难度”等级,可以观察到所有方法在不同等级上的结果存在明显的差距。


与仅包含 15 个场景的标准 DTU[9] 基准相比,我们的数据集在这项任务上提供了更全面的评估结果。


稠密视角表面重建示例


稀疏视图表面重建是一个更具挑战性的任务,在所有方法的结果中我们都观察到了明显瑕疵,均未达到能够满足实际应用的水平。


除了专为稀疏视角表面重建设计的方法外,我们还评估了前面提到的泛化性新视角合成模型的几何恢复能力——数据集提供的精准 3D Ground Truth 在评测中再次发挥了优势,然而他们的表现同样无法令人满意。


综上所述,这个问题的探索空间仍然巨大,而 OmniObject3D 为该领域进一步的研究提供了扎实的数据基础。


稠密和稀疏视角表面重建效果示例


任务四:

3D 物体生成(3D Object Generation)


除了重建之外,OmniObject3D 还可以用来训练真实 3D 物体的生成模型。我们采用 GET3D[10] 框架同时生成形状和纹理,并尝试使用单个模型从数据集中同时学习多种类别的生成。


带纹理的 3D 物体生成


通过在隐空间插值,可以观察到生成模型跨类别变化的特性。我们在文章中还着重探讨了由于训练数据不平衡导致的生成语义分布失衡特点,详细请参考论文。


形状和纹理低维隐码插值结果


未来工作


关于数据集本身,我们会致力于不断扩大和更新数据集以满足更广泛的研究需求。除了现有的应用,我们还计划进一步发展其他下游任务,如 2D / 3D 物体检测和 6D 姿态估计等。除了感知和重建任务外,在 AIGC 时代,我们相信 OmniObject3D 能够在推动真实感 3D 生成方面发挥至关重要的作用。


传送门


Project page

https://omniobject3d.github.io/


Paper

https://arxiv.org/abs/2301.07525


Github

https://github.com/omniobject3d/OmniObject3D/tree/main


Dataset Download

https://opendatalab.com/OpenXD-OmniObject3D-New/download


References:


[1] Angel X Chang, Thomas Funkhouser, Leonidas Guibas, Pat Hanrahan, Qixing Huang, Zimo Li, Silvio Savarese, Manolis Savva, Shuran Song, Hao Su, et al. Shapenet: An information-rich 3d model repository. arXiv.org, 1512.03012, 2015.

[2] Jeremy Reizenstein, Roman Shapovalov, Philipp Henzler, Luca Sbordone, Patrick Labatut, and David Novotny. Common objects in 3d: Large-scale learning and evaluation of real-life 3d category reconstruction. In Proceedings of the IEEE/CVF International Conference on Computer Vision (ICCV), pages 10901–10911, 2021.

[3] Jia Deng, Wei Dong, Richard Socher, Li-Jia Li, Kai Li, and Li Fei-Fei. Imagenet: A large-scale hierarchical image database. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), pages 248–255, 2009.

[4] Tsung-Yi Lin, Michael Maire, Serge Belongie, James Hays, Pietro Perona, Deva Ramanan, Piotr Doll´ar, and C Lawrence Zitnick. Microsoft coco: Common objects in context. In Proceedings of the European Conference on Computer Vision (ECCV), pages 740–755, 2014.

[5] Agrim Gupta, Piotr Dollar, and Ross Girshick. LVIS: A dataset for large vocabulary instance segmentation. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), pages 5356–5364, 2019.

[6] Mikaela Angelina Uy, Quang-Hieu Pham, Binh-Son Hua, Thanh Nguyen, and Sai-Kit Yeung. Revisiting point cloud classification: A new benchmark dataset and classification model on real-world data. In Proceedings of the IEEE/CVF International Conference on Computer Vision (ICCV), pages 1588–1597, 2019.

[7] Jiawei Ren, Liang Pan, and Ziwei Liu. Benchmarking and analyzing point cloud classification under corruptions. In Proceedings of the International Conference on Machine learning (ICML), 2022.

[8] Ben Mildenhall, Pratul P Srinivasan, Matthew Tancik, Jonathan T Barron, Ravi Ramamoorthi, and Ren Ng. Nerf: Representing scenes as neural radiance fields for view synthesis. In Proceedings of the European Conference on Computer Vision (ECCV), pages 405–421, 2020.

[9] Henrik Aanæs, Rasmus Ramsbøl Jensen, George Vogiatzis, Engin Tola, and Anders Bjorholm Dahl. Large-scale data for multiple-view stereopsis. International Journal of Computer Vision (IJCV), 120(2):153–168, 2016.

[10] Jun Gao, Tianchang Shen, Zian Wang, Wenzheng Chen, Kangxue Yin, Daiqing Li, Or Litany, Zan Gojcic, and Sanja Fidler. Get3d: A generative model of high quality 3d textured shapes learned from images. In Advances in Neural Information Processing Systems (NIPS), 2022.


点击进入—>【目标检测和Transformer】交流群


最新CVPR 2023论文和代码下载

后台回复:CVPR2023,即可下载CVPR 2023论文和代码开源的论文合集

后台回复:Transformer综述,即可下载最新的3篇Transformer综述PDF

目标检测和Transformer交流群成立

扫描下方二维码,或者添加微信:CVer333,即可添加CVer小助手微信,便可申请加入CVer-目标检测或者Transformer 微信交流群。另外其他垂直方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch、TensorFlow和Transformer等。


一定要备注:研究方向+地点+学校/公司+昵称(如目标检测或者ransformer+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群

▲扫码或加微信号: CVer333,进交流群


CVer计算机视觉(知识星球)来了!想要了解最新最快最好的CV/DL/AI论文速递、优质实战项目、AI行业前沿、从入门到精通学习教程等资料,欢迎扫描下方二维码,加入CVer计算机视觉,已汇集数千人!


扫码进星球


▲点击上方卡片,关注CVer公众号

整理不易,请点赞和在看

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
ObjectMapper,别再像个二货一样一直new了!点绛唇 谷雨春然CVPR 2023|Crowd3D:数百人大场景3D位置、姿态、形状重建,开源benchmark数据集一天自动发现四大数据库100+漏洞,浙大研究获SIGMOD 2023最佳论文Objective-C 日渐衰落上海AI实验室联合团队获CVPR最佳论文奖 | CVPR 2023CVPR 2023上AIGC大爆发!46篇论文、代码和数据集汇总CVPR'23 最佳论文候选 | 采样提速256倍!蒸馏扩散模型生成图像质量媲美教师模型7 Papers | 浙大研究获SIGMOD 2023最佳论文;GPT-4拿下最难数学推理数据集新SOTA若蓝小诗:炸裂CVPR 2023最佳论文候选出炉,12篇上榜!武大、港中文、商汤等国内机构多篇入选意大利旅游,乘火车是个好主意CVPR 2023 | 多模态新任务和新数据集!NTU提出广义引用分割问题GRESACL 2023最佳论文出炉!CMU西交大等摘桂冠,杰出论文奖华人学者占半壁江山CVPR 2023|Crowd3D:支持数百人3D/姿态/形状/位置重建的新基准八声甘州 四月瑞吉港CVPR最佳论文颁给自动驾驶大模型!中国团队第一单位,近10年三大视觉顶会首例CVPR最佳论文:大模型成就端到端自动驾驶|焦点分析大幅优化推理过程,字节高性能Transformer推理库获IPDPS 2023最佳论文奖CVPR 2023最佳论文候选出炉!武大、港中文、商汤等国内机构多篇入选CVPR 2023论文总结!CV最热领域颁给多模态、扩散模型【附PDF】整理了114篇医疗论文,含cvpr2023医疗论文+经典论文+医疗论文综述等英伟达推出新AI模型Neuralangelo 可将视频转换为高精3D模型CVPR 2023 | MobileOne:移动端仅需1ms的高性能主干!超越MobileViT!中国团队自动驾驶大模型斩获CVPR最佳论文;Stability AI推出新文生图模型;京东大模型即将发布丨AIGC大事日报国内首次!山东大学全新点云法向估计算法荣获SIGGRAPH 2023最佳论文奖《听一曲蝶恋花》&《梅香如故》今年 CV 热点这么多,不可错过 CVPR 2023 线下论文分享会SIGGRAPH 2023最佳论文公布!山大、港大获奖!北大、腾讯光子获提名对未知物体进行6D追踪和3D重建,英伟达方法取得新SOTA,入选CVPR 2023CVPR 2023 | 何恺明团队开源FLIP:MAE助力CLIP更快更高精度!近十年首次,国内机构上海AI Lab、武大、商汤研究获CVPR 2023最佳论文炸裂!最新CVPR2023、ICML2023、AAAI2023、ACL2023论文+Code大合集!首个感知决策一体化自动驾驶通用大模型!商汤联合团队获CVPR 2023最佳论文CVPR 2023 | LED阵列+LCD面板=3072个投影仪:浙大-相芯联合团队实现复杂物体高质量数字化建模
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。