Redian新闻
>
浙大/华科提出EVE-NeRF,基于“视角-极线”信息纠缠的可泛化隐式神经辐射场

浙大/华科提出EVE-NeRF,基于“视角-极线”信息纠缠的可泛化隐式神经辐射场

科学

最近来自浙江大学和华中科技大学的研究人员提出 EVE-NeRF 模型,一种具有泛化能力神经辐射场模型用于少样本的 3D 视图合成。模型以一种纠缠的方式聚合视角-极线特征,并引入场景不变的外观连续性和几何一致性先验,在泛化性 3D 视图合成测试中达到 SOTA,并且在真实世界中具有多种应用场景。

在 AR、VR、场景设计、自动驾驶以及电影制作等多个领域中,神经辐射场 NeRF 已经成为一种革命性的技术,它通过从一组二维图像中重建高质量的三维场景,为这些领域带来前所未有的真实感和沉浸感。


然而,传统的 NeRF 通常只适用于优化单个场景,泛化到新场景需要重新训练。另外,NeRF 的优化一般需要同一场景的 50-100 张多视角高质量图片,这在某些场景中是难以获取的。


因此,跨场景训练、少量视角需求的泛化性 NeRF 方法可提高模型的应用范围和灵活性,并节约时间和资源。


以往的泛化性 NeRF,往往需要经过三个步骤:从图像中提取 2D 特征,学习与辐射场对齐的可泛化特征,以及基于体渲染的光线合成。


然而这些方法在学习可泛化特征的阶段,没有同时关注视角和极线两个维度的特征,导致信息交互不足,最终影响新视角的渲染结果。

▲ EVE-NeRF 与仅有视角维度聚合(左上)、仅有极线维度聚合(右上)对比


另外,以往模型仅仅依靠跨场景数据集提供泛化能力,难以保持 3D 场景的外观的连续性和几何的一致性。

▲ EVE-NeRF 和其他泛化性 NeRF 对比


对此,来自浙江大学和华中科技大学的研究人员提出 EVE-NeRF 模型,只需要 3-10 张图片输入,通过纠缠聚合视角和极线两个维度的特征实现跨场景的 3D 视图合成。

论文地址:
https://arxiv.org/abs/2311.11845

项目地址:

https://github.com/tatakai1/EVENeRF


该模型有效地缓解了由仅有视角或极线维度交互所可能导致的固有几何和外观约束的缺失问题,从而进一步提高了 3D 表示的泛化能力。



模型结构

模型 pipeline 如下图所示:

EVE-NeRF 的主要流程涉及三个步骤。首先,在每个源视图中沿着整个极线采集采样点。然后,视角-极线交互(VEI)和极线-视角交互(EVI)模块的交替进行纠缠特征聚合。最后,采用 NeRF 解码器和体渲染来预测目标光线的颜色值。



实验部分
2.1 更高的渲染质量

在实验部分,作者进行了泛化性和 Few-shot 两种环境的测试,并在多种 3D 视图合成数据集进行测试,包括 LLFF、Blender、Shiny 和 DTU,并与以往发表在各大顶会的泛化性 NeRF 的 SOTA 模型进行比较。经定量测试,EVE-NeRF 模型在多项指标中均表现出了最好的效果。

▲ 泛化性定量测试(10张图片输入)


▲ Few-shot 能力定量测试(3张图片输入)

▲ DTU 数据定性对比

2.2 更高效的模型结构

EVE-NeRF 在性能方面优于类似的双分支网络,例如下图中 Naïve Dual Transformer 和具有交叉注意力的 Dual Transformer。另外,相比于目前的具有极线/视角聚合的 SOTA 方法,EVE-NeRF 不仅渲染速度更快且模型存储更小。

▲ 双分支网络定性对比

2.3 更强的几何外观感知能力


基于几何一致性和外观连续性先验,模型学习到了更强的几何外观感知能力。模型中的邻接注意力和交叉视图注意力分数蕴含了丰富的深度信息和视角信息。

更多阅读



#投 稿 通 道#

 让你的文字被更多人看到 



如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。


总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 


PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。


📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算


📬 投稿通道:

• 投稿邮箱:[email protected] 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿


△长按添加PaperWeekly小编



🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧


·
·
·

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
专治大模型说胡话,精确率100%!华科等提出首个「故障token」检测/分类方法卫网君:文昌航天发射场声明:警惕虚假宣传;NASA发布“火星人召集令”;美军方正在研究在卡角太空军基地建设星舰发射场;奥德修斯号ICLR 2024 | 跨领域准确进行零样本异常检测,浙大等提出AnomalyCLIP[评测]Colorful iGame GeForce RTX 4080 Super Neptune OC 16GB 评测纯加法Transformer!结合脉冲神经网络和Transformer的脉冲Transformer | NeurIPS 2023目标G5,学习4门Alevel已是“常态”?如何做好Alevel预习准备?外汇商品 | 美国两大PMI分化隐含了哪些信息?没学IGCSE对Alevel有多大影响?据说学习一年制Alevel很难拿到G5 offer?Sleep Instantly Within 3 Minutes Sleep Music for Babies MozartOpenAI 首席科学家Ilya Sutskever宣布即将离职,将致力于“对自己非常有意义”的新项目 | 环球科学要闻全英第一的UCL脑神经科学offer到!被预测为引领未来的脑神经科学,高中生如何探索?用MoE横扫99个子任务!浙大等提出全新通用机器人策略GeRM都说叶黄素是“视黄金”,它真的可以保护眼睛吗?i7-12700KF,还是i5-13600KF,DIY主机性能演示​AAAI 2024 | 杭电等提出MINDS,基于序列超图和对抗学习增强多尺度扩散预测《少年少年祖国的春天》学Alevel前怎么没人告诉我,这几门学科难度在next next level!?从20亿数据中学习物理世界,基于Transformer的通用世界模型成功挑战视频生成CVPR 2024|文本或图像提示精准编辑 3D 场景,美图&信工所&北航&中大联合提出 3D 编辑方法 CustomNeRF8B文字多模态大模型指标逼近GPT4V,字节、华师、华科联合提出TextSquareSora场景转「3D资产」!浙大CAD&CG全重实验室提出文本转3D新SOTA:多功能、可拓展国家药监局关于废止YY/T 0684-2008《神经外科植入物 植入式神经刺激器的标识和包装》等5项医疗器械行业标准的公告为《堡垒之夜》重回iOS,Epic拼命:要在欧洲推出EGS iOS商店《Hush Little Baby》今年的performance review,你拿到满意的rating了吗?一线经理为你揭秘业绩考核机制「 云集 | 职挂云帆 」[评测]Colorful Colorfire Meow R15 评测青烟一缕入大漠(二)两个附小#英语学习#英语俗语:To have Butterflies (in one’s stomach)The Chinese ‘Auntie’ Who Hit the Road — and Never Looked BackCVPR 2024 | 浙大提出近似平均方向求解器,快速扩散模型数值采样CVPR 2024 | 借助神经结构光,浙大实现动态三维现象的实时采集重建长期手机辐射,或致性功能异常、影响发育与脑活动?施一公院士:电磁辐射对生物系统的影响,这次说清楚了!ISSTA 2024 | 北大提出CoderUJB,面向代码大模型的可执行多任务代码评估基准揭示真实能力与局限浙大等团队提出全新「自我对比」策略,有效提高大模型的反思效果吴京人设变了?于正制造争议话题,病态瘦审美?蔚来李斌的烦恼
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。