Redian新闻
>
ICLR 2023 | DM-NeRF:从2D图像中实现3D场景的几何分解与编辑(已开源)

ICLR 2023 | DM-NeRF:从2D图像中实现3D场景的几何分解与编辑(已开源)

公众号新闻

点击下方卡片,关注“CVer”公众号

AI/CV重磅干货,第一时间送达

点击进入—>【NeRF】微信技术交流群

         

DM-NeRF: 3D Scene Geometry Decomposition and Manipulation from 2D Images

论文链接:https://arxiv.org/abs/2208.07227

PyTorch代码(已开源):

https://github.com/vLAR-group/DM-NeRF




1. Introduction


高效准确地分解三维场景的几何结构并对其进行任意编辑是三维场景理解与交互的关键问题,也是虚拟现实、智能机器等应用的基础。经典的几何方法如SfM/SLAM只能重建稀疏、离散的点云,无法包含几何细节,且不能对场景进行理解和操作。近年来,大多数基于深度神经网络的方法仅关注场景的光照和材质组成,无法实现对场景几何结构的分解与编辑,尤其是面临复杂三维场景时。

         

2. Motivation


近期,以NeRF [1] 为代表的神经网络隐式场方法在表征三维模型的几何细节、新视角合成和语义分割等任务上取得了很好的效果。本文旨在同时还原连续的3D场景几何结构、分解3D空间中所有独立的物体,并支持灵活的场景编辑。此外,编辑后的3D场景还可以从新视角进行渲染。目前所有已知的方法无法完成上述任务,因为需要满足以下两个条件:

  • 三维场景分解。其依赖空间中连续的3D标签提供监督信号,但是这不仅需要大量的人工标注,而且由于物体间遮挡关系的存在,完整的标注是不现实的;

  • 三维场景编辑。其需要对指定的隐式物体场进行编辑,然而场景编辑会不可避免地导致视觉遮挡问题,因此编辑算法应具备解决该遮挡问题的能力。


针对上述问题,本文设计了一种可以在单个框架中同时重建、分解、编辑和渲染复杂3D场景的方法。该方法可以在不依赖任何3D标签的前提下,实现对三维场景连续且隐式的分解,并在此基础上对其几何结构进行任意编辑。具体来讲,在神经辐射场的渲染框架内,首先,通过本文设计的Object Field模块,仅利用2D监督信号完成对3D空间的准确分解;其次,基于我们提出的Object Manipulator算法,对场景几何结构进行任意的编辑,如平移、旋转、放缩和形变等;最后,在新视角下对编辑后的场景完成渲染。本文包括以下三点贡献:

  • 提出了一个全新的场景分解框架,仅通过2D物体标签为每个空间中的三维物体直接学习其唯一的Object Code。相比现有的基于单张图像的分割方法,该框架表现出了更加显著的鲁棒性和准确性;

  • 提出了一个新颖的Inverse Query编辑算法,该算法可以高效地对指定物体的形状进行任意编辑,同时在新视角下对编辑后的场景进行渲染并生成逼真的二维图像;

  • 通过大量实验验证了本文方法在3D场景分解和编辑方面的卓越性能,并为3D场景编辑任务的定量评估贡献了第一个合成数据集。

         

3. Method


3.1 Overview


本文方法将三维空间点的位置信息          和观察方向作为输入。首先,利用NeRF Component 和 Object Field Component对每个三维空间点的体积密度(Volume Density)、RGB及物体编码(Object Code)进行预测;其次,使用Volume Rendering方法,将同一条光线上所有三维空间点的预测值积分到二维平面下,得到每个像素对应的RGB和Object Code;最后,Object Manipulation Component根据Object Field Component的3D标签预测结果完成场景编辑。

图1: DM-NeRF流程图


如图1所示,DM-NeRF框架包括以下三个核心部分:

1) NeRF Component:完成三维场景重建及渲染工作。学习每个三维空间点的体积密度和RGB;

2) Object Field Component:完成三维场景分解工作。表征每个三维空间点的物体编码;

3) Object Manipulator:完成三维场景编辑工作。任意编辑场景的几何结构,并解决视觉遮挡问题。

         

3.2 NeRF Component


该模块使用经典NeRF框架, 如图1所示。首先,输入L张图像及其对应的相机位姿 和相机内参 ,利用重投影方法可以将整个场景以点云的形式表示;其次,以每个三维空间点的位置 和观察方向 作为框架的输入,通过多层MLP对每个三维空间点的 RGB和体积密度进行预测;最后,使用Volume Rendering方法将同一条光线上所有三维空间点的预测值积分到二维平面下, 得其对应像素点的RGB。因为本文的核心工作是对三维空间中每一个物体进行准确分解及任意编辑,所以这里对NeRF只做简单介绍,具体细节请参考 [1] 。


3.3 Object Field Component


该模块是DM-NeRF框架的关键。其可实现在不依赖任何3D标签的前提下,生成每一个三维空间点对应的Object Code。该模块包含Object Field Representation、Object Code Projection及Object Code Supervision三部分关键内容。

图2: DM-NeRF 结构图


1) Object Field Representation


这一部分是对Object Field的定义。因为Object Code来表征Object Field,所以其是DM-NeRF对三维场景进行分解的关键,需要对其进行巧妙设计。如图2所示,给定一个三维空间点 ,Object Field Component针对这个点生成相应的Object Code,这里所有的Object Code用One-Hot 向量表示,每一个都有H+1维,其中H被描述为场景中存在的物体数量,的最后一维被表述为Non-Occupied空间。Object Field 公式定义如下:


2) Object Code Projection


这一部分是对2D物体监督信号的投影过程。虽然直接获取空间中连续的3D标签是不现实的,但是获取2D物体标签却相对容易,本文旨在仅通过2D物体标签为每个空间中的三维物体直接学习其唯一的Object Code。具体来讲,Object Field对三维空间中每一个点的Object Code进行预测,然后使用Volume Rendering方法将同一条光线上所有查询点的Object Code进行权重累加,得到其对应像素点的 Object Code。积分公式如下:


3) Object Code Supervision


这一部分是对2D物体标签的监督。通过上述方法可得到预测的2D物体标签。在实际应用中,由于存在视觉遮挡问题,不同视角下物体的数量和Object Code顺序是变化的,导致同一个三维空间点对应多个Object Code真值。为了解决这个问题,本文参考3D-BoNet [2] 的Optimal Association and Supervision策略,设计了以Soft Intersection-over-Union(sIoU)和Cross-Entropy Score(CES)为影响因素的Cost Matrix。具体的计算公式如下:



3.4 Object Manipulator


该模块是三维场景编辑的关键。基于Object Field对场景的准确分解,用户可以定位到场景内所有物体。为了高效地对指定物体的形状进行任意编辑,同时在新视角下对编辑后的场景进行渲染并生成逼真的二维图像,本文在给定目标物体Object Code和相应编辑操作的前提下,设计了新颖的Inverse Query算法。该方法如图3所示。

图3: Inverse Query示例


具体来讲,首先,空间中任意一束光线上的查询点可以通过一个变化矩阵,如平移矩阵,旋转矩阵或形变矩阵等,在该空间下找到另一束光线上的查询点 ;其次,把这两个查询点对应的五维位置信息送入DM-NeRF中,可以生成对相应的Object Codes。Manipulator接着会判断预测点的Object Code是否等于目标点的Object Code,来决定是否定交换他们的预测值;最后,再次沿着光线进行渲染,得到编辑后场景的二维图像。

         

4. Experiments


为了验证算法可行性,本文针对重建、分解、编辑和渲染,分别在Replica [3] 、ScanNet [4] 和DM-SR上进行了定量和定性评估。最终验证,DM-NeRF在复杂3D场景下具有近乎完美的场景重建、渲染及场景分解能力,并可以对场景进行任意编辑。


4.1 Training with 100% Accurate 2D Labels


首先,本文以NeRF作为重建和渲染的Baseline,以当前SOTA的SwinT [5] 作为场景分解的Baseline,在100%正确的2D物体真值标签下进行训练。从表1可以看出,本文方法都要优于上述Baseline。定性结果对比如图4、5。

表1: 重建及场景分解定量结果对比


图4: Replica重建及分解定性结果对比


图5: ScanNet重建及分解定性结果对比


4.2 Robustness to Noisy 2D Labels


其次,本文在有噪声的2D物体标签上进行训练评估。因为本文是基于多视角的重建方法,相比2D分割方法更具一致性,所以DM-NeRF的场景分解结果应更为鲁棒。为了验证这一想法,如图6所示,本文先是对训练的每张图像随机分配了整张图像不同比率(10%/50%/70%/80%/90%)的噪声, 然后分别让DM-NeRF和SwinT进行训练。从表2可以看出,本文方法在80% 噪声标签下训练,最终在测试数据上依然有平均74.08% 的准确率。

表2: 有噪声的场景分解定量结果(AP0.75)


图6: 不同噪声比率的真值标签示例


4.3 3D Object Manipulation


最后,由于目前缺乏一个可以对三维场景编辑进行定量评估的数据集,而为了展现DM-NeRF在场景编辑方面的卓越性能,本文使用Blender制作了一个包含8个多样且复杂的室内场景的合成数据集(DM-SR),并在该数据集提供的对指定物体的平移(Translation)、旋转(Rotation)、放缩(Scale)及平移+旋转+放缩(Joint)等真值数据上进行了定量评估。同时,本文还在Point-NeRF [6] 上也完成了相同的评估。可以从表3看出,DM-NeRF的场景编辑结果要远优于Point-NeRF。Manipulator对场景编辑任务的定性结果对比,如图7、8所示。

         

表3: DM-SR数据集上场景重建和编辑的定量结果对比


图7: Rigid Manipulation定性结果对比

图8: Deformable Manipulation定性结果对比

         

5. Conclusion


最后总结一下,本文提出的DM-NeRF灵活地将复杂场景的重建、分解、编辑和渲染集成在同一框架中。首先,通过设计隐式Object Field,将三维场景进行分解;其次,提出Visual-Occlusion-Aware编辑器,对场景几何结构进行任意编辑;最后,在新视角下对编辑后的场景完成渲染。然而,本文仍存在一些不足之处,未来可从以下两方面开展研究:1)场景光照解耦,允许同时对场景几何结构和环境光照进行编辑,让场景的渲染更加真实。2)Artifacts修复,可利用物体表面的几何连续性或设计更强大的神经网络编辑方法对其进行修复。


欢迎大家关注我们更多的新工作:


https://www.polyu.edu.hk/aae/people/academic-staff/dr-wang-bing/

https://yang7879.github.io/

         

Reference

[1] Ben Mildenhall, Pratul P. Srinivasan, Matthew Tancik, 967 Jonathan T Barron, Ravi Ramamoorthi, and Ren Ng. NeRF: 968 Representing Scenes as Neural Radiance Fields for View 969 Synthesis. European Conference on Computer Vision. pages 970 405–421, 2020.

[2] Bo Yang, Jianan Wang, Ronald Clark, Qingyong Hu, Sen Wang, Andrew Markham, and Niki Trigoni. Learning Object Bounding Boxes for 3D Instance Segmentation on Point Clouds. NeurIPS, 2019.

[3] Julian Straub, Thomas Whelan, Lingni Ma, Yufan Chen, Erik Wijmans, Simon Green, Jakob J Engel, Raul Mur-artal, Carl Ren, Shobhit Verma, Anton Clarkson, Mingfei Yan, Brian Budge, Yajie Yan, Xiaqing Pan, June Yon, Yuyang Zou, Kimberly Leon, Nigel Carter, Jesus Briales, Tyler Gillingham, Elias Mueggler, Luis Pesqueira, Manolis Savva, Dhruv Batra, and Hauke M Strasdat. The Replica Dataset : A Digital Replica of Indoor Spaces. arXiv:1906.05797, 2019.

[4] Angela Dai, Angel X. Chang, Manolis Savva, Maciej Halber, Thomas Funkhouser, and Matthias Nießner. ScanNet: Richly-annotated 3D Reconstructions of Indoor Scenes. CVPR, 2017.

[5] Liu Z, Lin Y, Cao Y, et al. Swin transformer: Hierarchical vision transformer using shifted windows Proceedings of the IEEE/CVF international conference on computer vision. 2021: 10012-10022.

[6] Qiangeng Xu, Zexiang Xu, Julien Philip, Sai Bi, Zhixin Shu, Kalyan Sunkavalli, and Ulrich Neu- mann. Point-NeRF: Point-based Neural Radiance Fields. arXiv, 2022.


点击进入—>【计算机视觉】微信技术交流群


最新CVPP 2023论文和代码下载


后台回复:CVPR2023,即可下载CVPR 2023论文和代码开源的论文合集

后台回复:Transformer综述,即可下载最新的3篇Transformer综述PDF


目标检测和Transformer交流群成立


扫描下方二维码,或者添加微信:CVer333,即可添加CVer小助手微信,便可申请加入CVer-目标检测或者Transformer 微信交流群。另外其他垂直方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch、TensorFlow和Transformer等。


一定要备注:研究方向+地点+学校/公司+昵称(如目标检测或者Transformer+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群


▲扫码或加微信号: CVer333,进交流群


CVer计算机视觉(知识星球)来了!想要了解最新最快最好的CV/DL/AI论文速递、优质实战项目、AI行业前沿、从入门到精通学习教程等资料,欢迎扫描下方二维码,加入CVer计算机视觉,已汇集数千人!


扫码进星球


▲点击上方卡片,关注CVer公众号

整理不易,请点赞和在看

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
ICLR 2023 | Specformer: 基于Transformer的集合到集合图谱滤波器ICLR 2023 | 阿里达摩院开源人脸检测新框架DamoFDICLR 2023 | PatchTST: 基于Transformer的长时间序列预测军旅故事原创系列(35)险中“仙人跳”ICLR 2023 | Edgeformers: 基于Transformer架构的表征学习框架转:2023 回国探亲(5)分割一切深度图!港科技、南洋理工等开源「SAD」:根据几何信息分割图像ICLR 2023 | DIFFormer: 扩散过程启发的Transformer不同出身背景的大学生,毕业出路如何分化?这位青年学者揭示了象牙塔里的另一面国际要闻简报,轻松了解天下事(03CVPR 2023 | 多个扩散模型相互合作,新方法实现多模态人脸生成与编辑ICLR 2023 | DIM-SLAM:首个实现神经隐式稠密重建的RGB-SLAM首个3D人像视频生成模型来了:仅需1张2D人像,眨眼、口型都能改变 | ICLR 20232023 春 祝姐妹们周末快乐!TPVFormer项目原作解读:面向自动驾驶场景的纯视觉三维语义占有预测ICLR 2023|场景三维重建新SOTA!基于3D Transformer的单目场景重建ICLR 2023 Spotlight | 2D图像脑补3D人体,衣服随便搭,还能改动作LERF:当CLIP遇见NeRF!让自然语言与3D场景交互更直观赢利CVPR 2023|Crowd3D:数百人大场景3D位置、姿态、形状重建,开源benchmark数据集广告狂人招兼职编辑(线上)2022&2023 Subaru Outback 和 2023 Honda CRV Hybrid二选一一键生成山川、河流,风格多样,从2D图像中学习生成无限3D场景ICLR 2023 | GeneFace:高可泛化高保真度的说话人视频合成让PyTorch创始人直呼「Amazing」的视频「脑补」,动态场景NeRF合成速度提升百倍自然语言融入NeRF,给点文字就生成3D图的LERF来了脑补出新视角,一个统一的NeRF代码库框架已开源高效低成本构建元宇宙场景:NeRF神经辐射场一行字实现3D换脸!UC伯克利提出「Chat-NeRF」,说句话完成大片级渲染文革中毛泽东为什么不杀邓小平ICLR 2023 | 清华大学龙明盛组提出通用时间序列神经网络骨干—TimesNet新年好意头 【福州芋泥】骗子都没有好下场​ICLR 2023 | LightGCL: 简单且高效的图对比学习推荐系统ICLR 2023 | 基于视觉语言预训练模型的医疗图像小样本学习及零样本推理性能研究ICLR 2023 Spotlight | 2D图像脑补3D人体:衣服随便搭,还能改动作针对 jar 和 vue 的一键自动化部署工具,界面友好,操作简单(已开源)Eruope 2023ClickPrompt:一站式 Prompt 学习、设计与运行工具(开源),支持 ChatGPT 等时序分析五边形战士!清华提出TimesNet:预测、填补、分类、检测全面领先|ICLR 2023
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。