Redian新闻
>
SIGGRAPH Asia 2022|告别手Key!上科大提出实时面捕,精细到微表情

SIGGRAPH Asia 2022|告别手Key!上科大提出实时面捕,精细到微表情

公众号新闻

机器之心专栏

机器之心编辑部

上海科大学科研团队联合数字人底层技术公司影眸科技,将首创的 4D PBR 扫描技术与神经网络表达相结合,训练多 VAE 的网络结构,跳过了传统的绑定与动态贴图制作流程。这项工作已经被计算机图形学顶会 SIGGRAPH Asia 2022 接收为 Technical Paper - Journal Track 并受邀作报告分享。


驱动一个数字人往往被拆分为追踪 (Tracking) 与重定向 (Retargeting) 两个环节。追踪由专业的面部捕捉设备及其辅助算法完成,负责记录演员的面部动作信息,重定向则是将捕捉到的动作信息迁移到新的角色。在传统的流程中,这两个环节往往是分离的两套体系,难以融合,且两个环节都有大量不可控的人工发挥成分,互相影响。

近些年,随着计算机图形学技术的发展与渲染硬件性能的不断提升,人们已经能够通过复杂的物理模拟,借助离线渲染技术得到无限真实的静态人像。但即便如此,在动态数字人角色的呈现上,我们距离跨越恐怖谷效应还有很长的路要走。虽然人们已经能够在诸如《阿凡达》《双子杀手》等电影中带来与真实演员别无二致的数字替身,但其背后是艺术家手工绑定与手工制作关键帧动画带来的大量资金投入。

针对上述问题,上海科技大学科研团队联合数字人底层技术公司影眸科技提出了这样的思路:将首创的 4D PBR 扫描技术与神经网络表达相结合,训练多 VAE 的网络结构,跳过了传统的绑定与动态贴图制作流程。这意味着,无需面捕头盔、无需人工绑定,只需要一段 4D 序列作为训练,RGB 视频就可以实现精细到微表情级别的实时面部捕捉


这项工作已经被计算机图形学顶会 SIGGRAPH Asia 2022 接收为 Technical Paper - Journal Track 并受邀作报告分享。据研究人员介绍,这项技术不仅能够生产出与现有渲染引擎兼容的面部几何模型和多层材质贴图,还能让任何人凭借手机进行轻量级面部捕捉,实时驱动高质量的面部资产,该技术已经投入国内影视特效与游戏行业使用。

论文地址:https://arxiv.org/pdf/2202.05592.pdf
项目地址:https://sites.google.com/view/npfa/

使用神经网络构建面部资产

上科大联合影眸科技研发团队将预先捕捉好的高质量面部资产与轻量级的输入设备相结合,填补了两种不同解决方案中间的空白。他们带来了全新的思路——基于高质量的 4D 面部资产数据,实现对面部动态几何和材质贴图的隐式表达,从而得到更真实自然的面部驱动效果。

首先是训练数据采集。研究人员使用了穹顶光场设备采集演员的面部资产。模特按照研究人员的设计进行面部表演,由穹顶光场以 24fps 采集了模特表演的动态面部几何和材质贴图(漫反射、高光、法线贴图)。


接着,研究人员实现了神经网络重定向(Neural Retargeting)。他们将该任务分解为:使用神经网络解析输入视频的表情信息(捕捉),并将其迁移到面部资产上(重定向)。具体实现时,任务被拆解为了三个分支——表情、几何、材质贴图。研究人员针对每个部分分别训练了一个 VAE 以提取相关信息。表情网络负责捕捉,后两个则负责重定向。


在训练表情网络时,他们使用了全新的三元训练法来监督训练。训练时,将某张图片与其相同视角不同表情的照片,以及不同视角相同表情的照片分在一组,使得网络能够学会从输入视频帧中解耦表情与视角信息,从而在视角变换的情况下也能稳定地以隐向量形式提取出表情信息。


面部几何网络也用类似的方法训练。训练时,网络需要预测当前表情面部几何与无表情面部几何的差值。

对于材质贴图训练,VAE 网络只需要能提取输入贴图中的表情隐向量,并根据其恢复出输入材质贴图即可。值得注意的是,这里使用了皱纹图的方式来表达材质贴图变化,具体来说,是网络输出当前帧材质贴图与无表情材质贴图的差值。将这张皱纹图线性放大到 4K 分辨率下并与无表情材质贴图叠加,就能得到高分辨率的面部材质贴图。这样既可以保留高分辨率贴图下的毛孔级面部细节,又可以精准表达皱纹、阴影等在动态表情中出现的面部特征。


此外,为了让三个 VAE 所提取的表情隐向量处于一致的隐空间,研究人员还训练了两个 MLP 来实现不同 VAE 之间表情信息的转化。

几何和材质贴图网络的训练,将训练集中的高质量面部资产编码于神经网络所构建的隐空间中。只需要一个表情隐向量,就可以得到对应的高质量几何、纹理资产。

最后使用时,对于某一视频输入帧,由表情 VAE 的编码器提取表情信息,由两个 MLP 分别将其转化为几何、材质贴图 VAE 的表情隐向量,再由两个 VAE 的解码器得到对应的几何和材质贴图。

资产的比较与使用

与之前的工作相比,该方法在几何精度上有了一定提高。



更重要的是,该方法扩展了多样的应用场景。

首先,模特本人的视频可以被用来驱动生成的资产。即便是面对训练集中没有做出过的表情,网络也能立刻给出高真实度的几何和材质贴图预测。这免去了后续专门为演员安装面部捕捉设备的工作。

其次,该方法也支持自由环境跨对象重定向(in-the-wild cross-identity retargeting),即,非模特本人的面部表演视频,也可以驱动面部资产。只需要一小部分视频帧混入网络训练中进行优化,并使用指示变量告知网络输入图片是手机拍摄输入或是设备采集结果,网络就可以提取输入视频中的人脸表情信息,并预测原模特做出该表情时,对应的面部几何和材质贴图。


此外,视频输入也可以驱动艺术加工过的人物形象。在艺术家对模特无表情的几何和材质贴图进行一定的修改后,网络对表情的预测结果可以直接应用在它们上面。因为网络预测的是相对无表情几何和贴图的偏差,所以表情变化和皱纹运动都可以真实地反映在修改后的面部几何和材质贴图上。



总结

该项目基于 4D 动态几何和材质贴图的训练数据,训练多 VAE 的网络结构从输入的人脸面部表演视频解耦出表情信息并解算出高精度的面部几何和材质贴图,最终得到了真实而细腻的视频驱动人脸效果。

将追踪与重定向两个环节自动化与标准化,极大程度地降低了高精度数字人制作与驱动的成本,减少了数字人艺术家的大量重复工作,使他们有更多的时间进行内容向的创作。



© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
NeurIPS 2022 | 一句话让三维模型生成逼真外观风格,精细到照片级细节透过《实时万象》,探寻千亿级「实时互动」市场边界意大利和丹麦的零散片层林尽染!纽约中央公园推出实时秋季红叶地图Logitech Pro Y-U0031 Tenkeyless Wired Gaming Keyboard北大刘利斌团队斩获 SIGGRAPH Asia 2022 最佳论文奖:用语音和文字驱动数字人打手势丹麦现代场地走了走。NeurIPS22|改进何恺明 MAE!GreenMIM:整合Swin与MAE,训练速度大幅提升!上科大最新工作!实时面捕天花板,微表情像素级一致,AI让你告别手Key|SIGGRAPH Asia 2022SIGGRAPH Asia 2022 | 人脸神经辐射场的掩码编辑方法—NeRFFaceEditing数十家GGV Family成员入选「WISE2022 新经济之王 年度企业」榜单|GGVictory撞衫关格格却能凭腿短艳压?!她这包臀沙漏腰细到全网斯哈…NeurIPS 2022 | 一句话让3D模型生成逼真外观风格!精细到照片级细节!中科院化学所、上科大、中科院大学等被列为美国商务部新清单名录荐书|告别汉水之后ECCV 2022 | 单点监督目标检测!国科大提出P2BNet:标一个点就能训练出强有力的目标检测器NeurIPS 2022 | 将通信带宽降低至十万分之一,上海交大提出新一代协作感知方法EMNLP 2022 | 北大提出基于中间层特征的在线文本后门防御新SOTA真人视频秒变高清动漫脸,数十种“滤镜”可选,无需注册在线可玩|SIGGRAPH Asia 2022你和吴彦祖只差一个下巴?上科大提出SCULPTOR:从骨头开始捏脸更靠谱|SIGGRAPH Asia 2022冬天养生吃姜再也不用熬煮,一瓶含7.5斤小黄姜!每天两滴,告别手脚冰冷,温暖全身!港科大提出:深度学习在全景视觉上的综述免费注册!上科大生命学院携手Cell Press|基因组技术助力在体单细胞及组织生物学研究IKEA x OBEGRÄNSAD联名!宜家22年最受瞩目系列开售!平价买到高级感!IKEA全新 OBEGRÄNSAD系列,全系列都好看!China Adagio: A Photographer’s 40-Year Visual JourneyHacking, Hugging, and Healing | AGM 2022, Keynotes & Election佩妮和沫沫都令人佩服龙卷风健康快递 203明早8:00开始!上科大生命学院-《细胞》研讨会|基因组技术助力在体单细胞及组织生物学研究乌俄战争似将有大突破上科大团队开发了一种面向未来光学AI的节能、轻量级、深度学习算法NeurIPS 2022 | 阿里浙大提出利用更典型的特征来提升分布外检测性能太美了!层林尽染!纽约中央公园推出实时秋季红叶地图CIKM 2022最佳论文:快手提出移动端实时短视频推荐系统
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。