顶刊TPAMI 2024!PERF:一张2D全景图可合成高质量的360度3D场景
点击下方卡片,关注“CVer”公众号
点击下方卡片,关注“CVer”公众号
AI/CV重磅干货,第一时间送达
AI/CV重磅干货,第一时间送达
添加微信:CVer5555,小助手会拉你进群!
扫描下方二维码,加入CVer学术星球!可以获得最新顶会/顶刊上的论文idea和CV从入门到精通资料,及最前沿应用!发论文/搞科研/涨薪,强烈推荐!
作者:MMLab@NTU、大湾区大学、香港大学
随着深度学习与3D技术的发展,神经辐射场(NeRF)在3D场景重建或逼真新视图合成方面取得了巨大的进展。给定一组2D视图作为输入,神经辐射场通过优化隐式函数来表示3D场景。
然而,在很多情况下,我们只有单张2D视图。一些工作尝试从具有 3D 先验的单张图像训练神经辐射场。他们主要关注有限的视野,因此仅需考虑少量的遮挡,这极大地限制了它们在具有大尺寸遮挡的真实 360 度全景场景中的可扩展性。
在很多真实的应用场景下,我们通常需要360度全视角的3D场景。因此,有必要研究利用360度视角相机(例如Insta360或者Ricoh THETA SC2)拍摄的一张2D全景图来恢复360度全视角的3D场景任务,如图1所示。
图1: 单张全景图恢复360度3D场景
利用单张2D全景图进行360度3D全景恢复是一个挑战的问题。具体地,
全景图是全景相机在某个位置捕获得到的 360 度2D视图,不包含 3D 信息。在没有任何 3D 先验的条件下,无法从单张2D全景图中训练出有效的神经辐射场 NeRF 。
由于单张全景图像只能捕捉到相机位置目光所及的可见区域,存在部分无法观测的区域。因此,训练单视图全景神经辐射场非常具有挑战性,它耦合了3D场景重建和3D场景生成两个学习任务。一方面,给定的一张全景图,我们需要重构其可见区域;而另一方面,我们必须在不可见区域生成合理的内容,在语义上匹配 3D 空间的可见区域,这是很困难的。
与有限视角的单张图恢复3D场景 [1-3] 或以物体为中心的360 度物体重建 [4]不同,全景场景通常包含大尺寸遮挡且侧重于开放场景。
“可见区域的重建”和“不可见区域的生成”通常会出现几何冲突。在不可见区域的场景生成过程中,新合成的 3D 几何体不应遮挡原始视角能观测到的可见区域。否则,将导致训练期间出现几何冲突。
为此,我们提出了一种新的方法解决单张2D全景图恢复360度3D全景问题,利用扩散模型的先验知识和单目深度估计器进行合作修补大尺度遮挡区域,并提出了一种新的冲突避免策略,实现了当前最佳的单张全景图恢复360度3D场景的效果。注意到,在同期的工作[5]中,为了解决3D空间中物体的检测与去除,F. Wei等提出了通过投票和裁剪的方法来保证各视角几何/纹理填补时的不一致性,但存在一些技术上的不同。也推荐读者去阅读此篇论文。本文工作发表在TPAMI 2024上。
项目主页:https://perf-project.github.io/
代码:https://github.com/perf-project/PeRF
论文:https://arxiv.org/pdf/2310.16831.pdf
附:Guangcong Wang和Peng Wang为共同一作,Ziwei Liu为通讯作者。此工作在MMLab@NTU完成。收录顶刊 TPAMI 2024!
神经辐射场(NeRF)在基于多视图的新视图合成方面取得了实质性进展。近期一些工作尝试从具有3D先验的单个图像训练神经辐射场。它们主要关注具有少量遮挡的有限视野,这极大地限制了它们对具有大尺寸遮挡的真实360度场景的可扩展性。为了解决这个问题,本文提出了一种新的方法解决单张2D全景图恢复360度3D全景问题。
图2: 本文所提出的PERF框架图
【方法框架】
上图展示了我们方法PERF的框架图。PERF主要由三个部分组成,包括1)包含深度图的单视图NeRF训练;2)协作RGBD修复不可见区域;3) 渐进式修复和擦除。具体来说,给定一张2D全景图,我们使用单目深度估计器来预测其深度图,并将输入视图(RGB+depth)作为初始化来训练 NeRF。然后利用一个协作 RGBD 修复模块进行不可见区域填补,该模块包含一个深度估计器和一个稳定扩散模型(StableDiffusion), 从而将 NeRF 扩展到随机视角渲染。为了避免几何冲突,本文使用了渐进式修复和擦除模块来判别冲突区域并在训练中忽略这些区域。我们使用给定的单视图全景图和随机视点生成的新全景图进行NeRF模型的微调直到收敛。
【本文的主要贡献】
【应用1:单张全景图恢复360度3D场景】
利用单张全景图训练,得到的新视角渲染视频。
图3: 单张全景图恢复360度3D场景
【应用2:文本生成360度3D场景应用】
首先利用Text2Light[6] 或者skybox[7],由文本生成全景图,然后利用本文方法将全景图生成360度3D场景。如下示例中利用了skybox。
图4: 文本生成360度3D场景1
图5: 文本生成360度3D场景2
图6: 文本生成360度3D场景3
先利用InstructPix2Pix[8]将全景图风格化,然后利用本文方法将全景图生成360度3D场景。
图7: 3D场景风格化
欢迎对计算机视觉、深度学习和图形学等领域感兴趣的同学(2024,2025级)加入王广聪课题组!我们诚挚邀请博士后、博士研究生、硕士研究生、研究助理、访问学生和实习生加入我们的课题组,共同探索前沿科技(详情请点击:https://wanggcong.github.io/recruit2024.html)。
【参考文献】
何恺明在MIT授课的课件PPT下载
何恺明在MIT授课的课件PPT下载
在CVer公众号后台回复:何恺明,即可下载本课程的所有566页课件PPT!赶紧学起来!
CVPR 2024 论文和代码下载
CVPR 2024 论文和代码下载
在CVer公众号后台回复:CVPR2024,即可下载CVPR 2024论文和代码开源的论文合集
Mamba、多模态和扩散模型交流群成立
扫描下方二维码,或者添加微信:CVer5555,即可添加CVer小助手微信,便可申请加入CVer-Mamba、多模态学习或者扩散模型微信交流群。另外其他垂直方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch、TensorFlow和Transformer、NeRF、3DGS、Mamba等。
一定要备注:研究方向+地点+学校/公司+昵称(如Mamba、多模态学习或者扩散模型+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群
▲扫码或加微信号: CVer5555,进交流群
CVer计算机视觉(知识星球)来了!想要了解最新最快最好的CV/DL/AI论文速递、优质实战项目、AI行业前沿、从入门到精通学习教程等资料,欢迎扫描下方二维码,加入CVer计算机视觉(知识星球),已汇集近万人!
▲扫码加入星球学习
▲点击上方卡片,关注CVer公众号
整理不易,请点赞和在看
▲扫码或加微信号: CVer5555,进交流群
CVer计算机视觉(知识星球)来了!想要了解最新最快最好的CV/DL/AI论文速递、优质实战项目、AI行业前沿、从入门到精通学习教程等资料,欢迎扫描下方二维码,加入CVer计算机视觉(知识星球),已汇集近万人!
▲扫码加入星球学习
▲点击上方卡片,关注CVer公众号
整理不易,请点赞和在看
微信扫码关注该文公众号作者