Redian新闻
>
Meta元宇宙出狠活!一个摄像头就能捏出个会动的虚拟化身

Meta元宇宙出狠活!一个摄像头就能捏出个会动的虚拟化身

公众号新闻



  新智元报道  

编辑:LRS
【新智元导读】仅需一个深度摄像头,就能生成一个动态的3D模型。


运动中的人类新视图合成是一个极具挑战性的计算机视觉问题。


以往的2D图片转三维模型都是在静态的情况下,但如果输入的是一段人类运动的视频,该如何生成自由视角的视频?


如果这个问题解决了,那就可以在AR/VR应用中的自动化实现虚拟化身建模



现有的一些研究工作通常需要复杂的任务设置,包括多个输入视频、三维监督或预训练模型,这些苛刻的要求都限制了模型的泛化性,无法很好地推广到新用户的输入上。


为了解决这些局限性,Meta提出了一个新视图合成框架HVS-Net,可以从任意人类未见视图中生成逼真的渲染。视图的捕获过程只需要一个具有稀疏RGB-D的单视图传感器,类似于一个低成本的深度相机


论文链接:https://www.phongnhhn.info/HVS_Net/img/HVSNet.pdf


论文中提出了一个架构来学习基于球体(sphere-based)的神经渲染所获得的新视图中的稠密特征,并使用全局上下文绘画模型来创建完整的渲染图。


此外还包括一个增强网络(enhancer network)利用整体保真度,甚至在原始视图的遮挡区域,产生具有精细细节的清晰渲染。


实验结果显示,该方法在单一稀疏的RGB-D输入的情况下仍然可以生成高质量的合成和真实人类的新视图,并且能够泛化到未见过的新人物新的姿势并忠实地重建面部表情


该方法不仅优于先前的人类视图合成方法,而且对不同稀疏度的输入都具有鲁棒性。


一键生成虚拟化身


刚性物体(rigid objects)或动态场景的新视图合成是最近非常活跃的研究课题,在各种任务中都取得了极大的性能提升。


但对运动中的人类的新视图进行合成需要处理具有各种变形的动态场景的方法,特别是在那些具有精细细节的区域,如面部或衣服。


除此之外,常见的动态合成模型通常依赖于多视图输入,需要多个相机拍照更多的相机参数推理时间也很长(每帧可能需要几分钟)。


Meta提出的人类新视图合成网络HVS-Net仅使用一个消费级RGB-D传感器就能生成高保真的衣着人类的渲染图像。


网络有如下5个设计目标


1、在测试时能够对新的人物进行泛化,无需重新训练;


2、能够处理训练集中不包含的新姿势


3、无论是来自物体还是人物自身的遮挡,模型都应该能够处理;


4、能够捕捉面部表情


5、给定一个单流、稀疏的RGB-D输入,能够实时生成高保真的图像


HVS-Net将人的上半身的单一稀疏RGB-D图像和目标摄像机姿势作为输入,并从目标视角生成高分辨率的渲染。



与以前的方法相比,第一个关键区别是HVS-Net利用深度作为一个额外的输入流。


虽然输入的深度是稀疏的和有噪声的,但它仍然使模型能够利用输入视图中的信息,从而简化了新视图的合成。



为了说明输入的稀疏性,研究人员选择了一个基于球体的神经渲染器,与简单地从一个视图到另一个视图进行几何扭曲相比,该渲染器使用一个能够学习的半径来创建一个更密集的、扭曲的图像。


即使是被原始传感器正确观察到的像素也是稀疏的,从一个视角看两个相邻的像素,无论它们之间相差多少,只能得到它们各自深度的信号。


这也意味着,如果是从侧面来看,两个像素的深度差距会更大,但这些「间距」不是无限大的,所以可以通过基于球形的渲染器来解决这个问题。


考虑到从原始视点出发的每个像素的深度以及相机参数,这些点自然可以被投影到一个新的视图,这也使得使用基于深度的扭曲或可微分的点或球体的渲染器是开发视图合成的第一步的最佳选择。投影的过程能够自动纠错(除了传感器的噪声),且不受训练误差的影响



视图合成模型生成目标视图的稠密特征,并使用全局上下文绘画网络渲染来自目标摄像机视图的结果RGB图像。


当与编码器-解码器架构结合并进行端对端训练时,该方法能够合成未见过的个体的新视图,并对主要输入视图中不可见的区域进行绘制。


虽然这种方法在最小的遮挡情况下效果很好,但在有严重遮挡的情况下,无论是人的手在身体前面移动或者拿着某个物体,都很难产生高质量的渲染。


因此,研究人员建议用户额外输入一个无遮挡图像,并通过在两个输入之间建立精确的稠密对应关系,将其扭曲成目标的新视图。



通过训练一个紧凑的Enhancer网络来完善最初估计的新视图,预测新视图和无遮挡图像之间的对应关系,使用一个新的HD-IUV模块对渲染图进行精炼处理,可以呈现出更清晰的结果。


然后利用生成的图像和ground-truth数据对之间的光度(photometric)损失来端到端地训练整个pipeline


此外,模型还使用立体渲染来鼓励近距离的视点之间的视图一致的结果。


为了更好地训练HVS-Net,还需要依靠高质量合成的人类扫描结果,从不同的角度进行捕捉动画和渲染。


这项工作的一个关键贡献是,模型可以很好地推广到由3DMD扫描系统捕获的真实数据,其面部或衣服的细节还原水平之高是前所未有的


在实验部分,研究人员仅使用合成数据集RenderPeople对该方法进行训练,数据集中的人物穿着各种服装,在某些情况下拿着杯子、袋子或手机等物体,虽然涵盖了各式各样的外观和物体互动情况,但所有这些数据都是静态的,所以姿势空间的覆盖率是不足的。


研究人员通过引入额外的姿势变化来增强数据集,即对所有的网格进行非刚性配准(non-rigid registration)后使用一组预定义的动作将之制作成动画


最后使用Blender为每帧25个视图合并一套高质量的标准RGB-D渲染图以及对应的IUV图。


除了合成测试集,研究人员还收集了一个真实世界的测试数据集,其中包括运动中的人物的3dMD 4D扫描图。3dMD 4D扫描仪是一个全身扫描仪,可以在60Hz的频率下捕获未配准的体积点云。


真实数据集仅用作测试,以了解该方法在处理合成数据和真实数据之间的领域差距上的能力。



3dMD的数据不包括物体的相互作用,但一般来说噪声比较多,而且有复杂的面部表情。


实验结果证实了HVS-Net中球体半径预测器的有效性,使得模型在输入点云密度方面更加稳健。



作为对比,尽管使用密集的深度图作为LookingGood的输入,但如果目标姿势与输入视点有很大偏差,该方法仍难以产生真实的结果,而SynSin不仅在遮挡区域表现不佳,而且在人的脖子周围也产生了伪影。



相比之下,HVS-Net方法不仅能够呈现可信的、真实的新视图,而且还能创造出忠实于输入视图的视图,重点是,HVS-Net在输入信息更少的情况下对两个主体的头发进行相当准确的预测。


参考资料:https://www.reddit.com/r/MachineLearning/comments/xmpv89/r_meta_researchers_generate_realistic_renders/




微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
亲手拼出会动的挖掘机、推土车、起重机,工程车爱好者大满足!母亲逃亡上海的血泪之路(三)数据中心:VXLAN技术及园区网络虚拟化Meta Media超媒体控股集团创始人、董事长兼CEO邵忠:元宇宙发展不应该被技术因素所束缚倚澜科技发布MetaC与MetaS系统,探索元宇宙会议与虚拟直播场景元宇宙相亲来了!盘点元宇宙空间“108种玩法”和变现之道每节车厢安装2个摄像头!纽约地铁全面打击犯罪!元宇宙的“通天塔”需从元宇宙技术的“脚手架”开始【宣讲会】UIUC有一场元宇宙线上活动?元宇宙上和嘉宾互动是一种什么样的体验?千亿大风口!特斯拉下重注,爆火的虚拟电厂是个啥玩意儿?元宇宙时代,我们更应关注社会元宇宙化的风险扎克伯格元宇宙形象遭群嘲, 元宇宙是人类的白日梦吗?2022「甲子引力X」元宇宙峰会成功举办:探寻中国特色元宇宙路径 | 甲子引力后 OpenStack 时代,以容器为代表的虚拟化技术将有怎样的演进?| Q推荐一个空荡荡的元宇宙世界!Meta元宇宙平台用户不足20万不是炒作?她突然在100个摄像头前晕倒撞地…“首个元宇宙喜剧节目”即将亮相!争议中扎克伯格仍坚持加大元宇宙投资硅谷黑科技丨打开摄像头就知道皮肤健康程度,真有那么神?元宇宙开放虚拟人平台「OPENVERSE」完成Pre-A轮上亿融资,首发正版球迷元宇宙新产品|36氪首发对话北邮张平院士:不建议高校盲目设元宇宙系,但元宇宙不能不做这个女人不简单1500美元,小扎推出天价头显Quest Pro,还给虚拟化身加上了腿改名一周年,扎克伯格的虚拟人终于有腿了▲▲▲ 告诉大家一个不好的消息(II)牛市来了!▲▲▲市长大动作!装200个摄像头+罚款$4,000!​市府拨款1450万,从下周一开始要让纽约不一样硬核观察 #775 神秘的黑客组织正在“超级劫持”虚拟化软件元宇宙还没谱,欧盟选择发力:计划2023年立法监管元宇宙!险些半身不遂动画大师新作《雀斑公主》扑街,背后还有一堆你不知道的虚拟偶像问题!8岁男孩用泥巴捏出万里长城,超高还原度令人叹服国民党与土共,谁更配得上中国元宇宙标准论坛主席、科纳斯组织总裁尼尔·特里维特:开放元宇宙亟待构建互操作标准Meta重仓元宇宙一年后股价下跌60%,元宇宙泡沫已裂?如何在规模化微服务项目中应用服务虚拟化测试技术“元宇宙背后和之外” - 欢迎参加IEEE全球元宇宙大会系列峰会
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。