Redian新闻
>
CVPR 2024 | 南洋理工提出动态人体渲染新范式,高度还原跳舞时飞扬的裙摆

CVPR 2024 | 南洋理工提出动态人体渲染新范式,高度还原跳舞时飞扬的裙摆

公众号新闻


©作者 | 机器之心编辑部
来源 | 机器之心


在日常活动中,人的运动经常引起衣服的附属运动 (secondary motion of clothes) 并因此产生不同的衣服褶皱,而这需要对人体及衣服的几何、运动(人体姿态及速度动力学等)及外观同时进行动态建模。由于此过程涉及复杂的人与衣服的非刚体物理交互,导致传统三维表征往往难以应对。


近年从视频序列中学习动态数字人渲染已取得了极大的进展,现有方法往往把渲染视为从人体姿态到图像的神经映射,采用 「运动编码器—运动特征—外观解码器」的范式。而该范式基于图像损失做监督,过于关注每一帧图像重建而缺少对运动连续性的建模,因此对复杂运动如 「人体运动及衣服附属运动」难以有效建模。


为解决这一问题,来自新加坡南洋理工大学 S-Lab 团队提出运动—外观联合学习的动态人体重建新范式,并提出了基于人体表面的三平面运动表征 (surface-based triplane),把运动物理建模和外观建模统一在一个框架中,为提升动态人体渲染质量开辟了新的思路。该新范式可有效对衣服附属运动建模,并可用于从快速运动的视频(如跳舞)中学习动态人体重建,以及渲染运动相关的阴影。在渲染效率上比三维体素渲染方法快 9 倍,LPIPS 图像质量提高约 19 个百分点。



论文题目:

SurMo: Surface-based 4D Motion Modeling for Dynamic Human Rendering

论文地址:

https://arxiv.org/pdf/2404.01225.pdf

项目主页:

https://taohuumd.github.io/projects/SurMo

代码链接:

https://github.com/TaoHuUMD/SurMo


 



方法概览

针对已有范式「运动编码器—运动特征—外观解码器」只关注于外观重建而忽略运动连续性建模的缺点,提出了新范式 SurMo :运动编码器—运动特征——运动解码器、外观解码器」。如上图所示,该范式分为三个阶段:

  • 区别于已有方法在稀疏三维空间对运动建模,SurMo 提出基于人体表面流形场(或紧凑的二维纹理 UV 空间)的四维(XYZ-T)运动建模,并通过定义在人体表面的三平面(surface-based triplane)来表征运动。

  • 提出运动物理解码器去根据当前运动特征(如三维姿态、速度、运动轨迹等)预测下一帧运动状态,如运动的空间偏导—表面法向量和时间偏导—速度,以此对运动特征做连续性建模。

  • 四维外观解码,对运动特征在时序上解码以此渲染三维自由视点视频,主要通过混合体素—纹理神经渲染方式实现 (Hybrid Volumetric-Textural Rendering, HVTR [Hu et al. 2022]).

SurMo 可基于重建损失和对抗损失端到端训练,从视频中学习动态人体渲染。


实验结果
该研究在 3 个数据集,共 9 个动态人体视频序列上进行了实验评估: ZJU-MoCap [Peng et al. 2021], AIST++ [Li, Yang et al. 2021] MPII-RRDC [Habermann et al. 2021] .

新视点时序渲染

该研究在 ZJU-MoCap 数据集上探究在新视点下对一段时序的动态渲染效果 (time-varying appearances),特别研究了 2 段序列,如下图所示。每段序列包含相似的姿态但出现在不同的运动轨迹中,如①②,③④,⑤⑥。SurMo 可对运动轨迹建模,因此生成随时间变化的动态效果,而相关的方法生成的结果只取决于姿态,在不同轨迹下衣服的褶皱几乎一样。




渲染运动相关的阴影及衣服附属运动


SurMo 在 MPII-RRDC 数据集上探究了运动相关的阴影及衣服附属运动,如下图所示。该序列在室内摄影棚拍摄,在灯光条件下,由于自遮挡问题,表演者身上会出现与运动相关的阴影。

SurMo 在新视点渲染下,可恢复这些阴影,如①②,③④,⑦⑧。而对比方法 HumanNeRF [Weng et al.] 则无法恢复与运动相关的阴影。此外,SurMo 可重建随运动轨迹变化的衣服附属运动,如跳跃运动中不同的褶皱 ⑤⑥,而 HumanNeRF 无法重建该动态效果。


渲染快速运动的人体

SurMo 也从快速运动的视频中渲染人体,并恢复与运动相关的衣服褶皱细节,而对比方法则无法渲染出这些动态细节。





消融实验

(1)人体表面运动建模

该研究对比了两种不同的运动建模方式:目前常用的在体素空间 (Volumetric space) 的运动建模,以及 SurMo 提出的在人体表面流形场的运动建模 (Surface manifold) ,具体比较了 Volumetric triplane 与 Surface-based triplane,如下图所示。


可以发现,Volumetric triplane 是一种稀疏表达,仅有大约 21-35% 的特征用于渲染,而 Surface-based triplane 特征利用率可达 85%,因此在处理自遮挡方面更有优势,如(d)所示。同时 Surface-based triplane 可通过体素渲染中过滤部分远离表面的点实现更快的渲染,如图(c)所示。



同时,该研究论证 Surface-based triplane 可比 Volumetric triplane 在训练过程收敛更快,在衣服褶皱细节、自遮挡上均有明显优势,如上图所示。

(2)动力学学习

SurMo 通过消融实验研究了运动建模的效果,如下图所示。结果显示,SurMo 可解耦运动的静态特性(如某一帧下固定姿态)及动态特性(如速度)。例如当改变速度的时候,贴身衣服褶皱不变,如①,而宽松衣服褶皱则受速度影响较大,如②,这与日常人们的观测相一致。


更多阅读




#投 稿 通 道#

 让你的文字被更多人看到 



如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。


总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 


PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。


📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算


📬 投稿通道:

• 投稿邮箱:[email protected] 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿


△长按添加PaperWeekly小编



🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧


·
·
·

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
英国花11 亿英镑学术投资,南洋理工大学成立新计算机与数据科学学院...CVPR 2024 | 让视频姿态Transformer变得飞速,北大提出高效三维人体姿态估计框架HoTCVPR 2024 | 文本一键转3D数字人骨骼动画,阿尔伯塔大学提出MoMask框架ICLR 2024 | AnomalyCLIP:零样本异常检测新范式CVPR 2024 | 擅长处理复杂场景和语言表达,清华&博世提出全新实例分割网络架构MagNet戴康:新范式,印度股市的“牛途”——“债务周期大局观”系列(八)2024 Chinese New Year's DinnerCVPR 2024 | COCO数据集升级!字节提出新一代数据集COCONutCVPR 2024 | SAM-6D:分割一切遇见零样本6D位姿估计CVPR 2024 | 港理工联合OPPO提出统一且通用的视频分割大模型2024 多伦多国际车展(I)CVPR 2024 | 跳舞时飞扬的裙摆,AI也能高度还原了,南洋理工提出动态人体渲染新范式ICLR2024:南洋理工发布!改几个参数就为大模型注入后门CVPR 2024 | 和马赛克说拜拜!华为、清华等提出基于认知的万物超分大模型CVPR 2024 | 浙大提出近似平均方向求解器,快速扩散模型数值采样CVPR 2024|文本或图像提示精准编辑 3D 场景,美图&信工所&北航&中大联合提出 3D 编辑方法 CustomNeRF再全球化下,全球经济秩序新范式,对企业家有什么启示?CVPR 2024 | 北大提出HoT:高效3D人体姿态估计新框架CVPR 2024 | 通过细粒度人类反馈对齐数据,提高多模态大模型可信度CVPR 2024 | DrivingGaussian:环视动态自动驾驶场景重建仿真突发!Fed 今年(2024)不会降息。花街预测CVPR 2024 | 北大&电子科大提出RCBEVDet:毫米波雷达-相机多模态的感知架构丛林法则,喜不喜欢,都得逆来顺受CVPR 2024 | 借助神经结构光,浙大实现动态三维现象的实时采集重建【七绝】 龙吟 依韵之宇(十二侵)CVPR 2024 | 中大哈佛等提出全新训练方法CLoT,探究大模型幽默创新力AI越来越卷,如何走出一片天?快来阿里巴巴-南洋理工联合实验室CVPR 2024 | 字节提出视觉基础模型:ViTamin,实现多项SOTA!2024 Toronto International Auto Show ( I )2024亚洲大学排名发布!新国立、南洋理工、港大、港中文位列前10!日常篇2CVPR 2024 | 中科大&微软提出:迈向更统一的上下文视觉理解CVPR 2024 | 无参数无训练也能大幅涨点!港城大等提出全新小样本3D分割模型CVPR 2024 | 腾讯提出LORS:低秩残差结构,瘦身模型不掉点!【Poem Reading Tuesday】all the time I pray to Buddha by KobayashiCVPR 2024 | 零样本6D物体姿态估计框架SAM-6D,向具身智能更进一步长篇小说《逻辑自洽》5 临终关怀/ 6 风水评价项目戴康:一张图看懂《新范式,印度股市的“牛途”——“债务周期大局观”系列(八)》CVPR 2024 | 通用视觉新突破!UC伯克利提出首个无自然语言的纯视觉大模型去年10月葡西独游6: 格拉那达与“红宫”
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。