Redian新闻
>
一张照片+音频=超逼真数字人视频!VASA-1模型拉开「实时交互」大幕

一张照片+音频=超逼真数字人视频!VASA-1模型拉开「实时交互」大幕

公众号新闻



  新智元报道  

编辑:LRS
【新智元导读】仅需一张照片加一段音频,即可生成具有精确唇音同步、逼真面部行为和自然头部运动的超逼真说话面部视频,并且生成速度快,512×512分辨率下,生成速率可达40帧,启动延迟可忽略不计。


在人物说话的过程中,每一个细微的动作和表情都可以表达情感,都能向观众传达出无声的信息,也是影响生成结果真实性的关键因素。

 

如果能够根据特定面容来自动生成一段生动逼真的形象,将彻底改变人类与人工智能系统的交互形式,例如改善有障碍患者的交流方式、增强人工智能辅导教育的趣味性、医疗保健场景下的治疗支持和社会互动等。

 

最近,微软亚洲研究院的研究人员抛出了一个重磅炸弹VASA-1框架,利用视觉情感技巧(VAS,visual affective skills),只需要输入一张肖像照片+一段语音音频,即可生成具有精确唇音同步、逼真面部行为和自然头部运动的超逼真说话面部视频。

 

论文链接:https://arxiv.org/pdf/2404.10667.pdf

项目主页:https://www.microsoft.com/en-us/research/project/vasa-1/

 

下面为一分钟视频演示。


 

在VASA框架下,首款模型VASA-1不仅能够产生与音频完美同步的嘴唇动作,还能够捕捉大量面部细微差别和自然的头部动作,有助于感知真实性和生动性。

 

框架的核心创新点为基于扩散的整体面部动力学和头部运动生成模型,以及使用视频来开发出这种富有表现力和解耦的面部潜空间(disentangled face latent space)。

 

研究人员还使用了一组全新的指标对模型能力进行评估,结果表明该方法在各个维度上都显著优于之前的方法,可以提供具有逼真面部和头部动态的高质量视频,还支持以高达40 FPS的帧速率实时生成512×512视频,启动延迟可忽略不计。

 

可以说,VASA框架为模拟人类对话行为中,使用逼真化身进行实时互动铺平了道路。

 

VASA框架

 

一个好的生成视频应该具备几个关键点:高保真度、图像帧的清晰度和真实性、音频和嘴唇动作之间的精确同步、表情和情感的面部动态,以及自然的头部姿势。

 

 

模型在生成过程可以接受一组可选的控制信号来指导生成,包括主眼凝视方向、头部到相机的距离和情绪偏移等。

 

整体框架

 

VASA模型并不是直接生成视频帧,而是在音频和其他信号的条件下,在潜空间中生成整体的面部动态和头部运动。

 

给定运动潜码后,VASA使用面部编码器从输入图像中提取的外观和身份特征作为输入,然后生成视频帧。

 

研究人员首先构建了一个人脸潜空间,并使用现实生活中的人脸视频对人脸编码器和解码器进行训练;然后再训练一个简单的扩散Transformer对运动分布进行建模,针对测试期间的音频和其他条件下,生成运动潜码。

 

1. 表情和解耦面部潜空间构建(Expressive and Disentangled Face Latent Space Construction)

 

给定一组未标注的说话人脸视频,研究人员的目标是建立一个具有高度解耦和表现力的人脸潜空间。

 

在主体身份改变的情况下,解耦可以对视频中的人脸和整体面部行为进行高效的生成建模,还可以实现对输出的解耦因子控制,相比之下,现有方法要么缺乏表现力,要么缺乏解耦。

 

另一方面,面部外观和动态运动的表情可以确保解码器能够输出具有丰富面部细节的高质量视频,潜生成器能够捕捉细微的面部动态。

 

为了实现这一点,VASA模型建立在3D辅助人脸再现(3D-aid face reenactment)框架的基础上,与2D特征图相比,3D外观特征体积可以更好地表征3D中的外观细节,其在建模3D头部和面部运动方面也很强大。

 

具体来说,研究人员将面部图像分解为规范的3D外观体积、身份编码、3D头部姿势和面部动态编码,每个特征都由独立的编码器从人脸图像中进行提取,其中外观体积需要先通过提取姿势三维体积,再将刚性和非刚性三维扭曲到规范体积来构建得到。

 

解码器将上述潜变量作为输入,并重建面部图像。

 

学习解耦潜空间的核心思想是,通过在视频中不同图像之间交换潜变量来构建图像重建损失,但原版模型中的损失函数无法很好地区分「面部动态」和「头部姿势」,也无法识别「身体」和「运动」之间的关联性。

 

研究人员额外添加了成对的头部姿势和面部动态来传递损失,以改善解耦效果。

 

为了提升身份和运动之间的纠缠,损失函数中引入了面部身份相似性损失。

 

2. 基于扩散Transformer的整体人脸动态生成(Holistic Facial Dynamics Generation with Diffusion Transformer)

 

给定构建的人脸潜空间和训练的编码器,就可以从现实生活中的人脸视频中提取人脸动态和头部运动,并训练生成模型。

 

最关键的是,研究人员考虑了身份不可知的整体面部动态生成(HFDG),学习到的潜编码代表所有面部运动,如嘴唇运动、(非嘴唇)表情、眼睛凝视和眨眼,与现有方法中「使用交错回归和生成公式对不同因素应用单独的模型」形成了鲜明的对比。

 

 

此外,之前的方法通常基于有限的身份进行训练,不能对不同人类的广泛运动模式进行建模,特别是在具有表现力的运动潜空间的情况下。

 

在这项工作中,研究人员利用音频条件下的HFDG的扩散模型,在来自大量身份的大量谈话人脸视频上进行训练,并将Transformer架构应用于序列生成任务。

 

3. Talking Face视频生成

 

在推断时,给定任意的人脸图像和音频片段,首先使用训练的人脸编码器提取3D外观体积和身份编码;然后提取音频特征,将其分割成相同长度的片段,并使用训练的扩散Transformer以滑动窗口的方式逐个生成头部和面部运动序列;最后使用训练后的解码器生成最终视频。

 

实验结果

 

研究人员使用公开的VoxCeleb2数据集,包含大约6000名受试者的谈话面部视频,并重新处理数据集并丢弃「包含多个人物的片段」和低质量的片段。

 

对于motion latent生成任务,使用embedding尺寸为512、头编号为8的8层Transformer编码器作为扩散网络。

 

模型在VoxCeleb2和收集的另一个高分辨率谈话视频数据集上进行训练,该数据集包含约3500个受试者。

 

定性评估

 

可视化结果

 

通过视觉检查,我们的方法可以生成具有生动面部情绪的高质量视频帧。此外,它可以产生类似人类的对话行为,包括在演讲和沉思过程中眼睛凝视的偶尔变化,以及眨眼的自然和可变节奏,以及其他细微差别。我们强烈建议读者在线查看我们的视频结果,以充分了解我们方法的功能和输出质量。

 

生成可控性

 

在不同控制信号下生成的结果,包括主眼凝视、头部距离和情绪偏移,生成模型可以很好地解释这些信号,并产生与这些特定参数密切相关的人脸结果。

 

 

解耦face latents

 

当将相同的运动潜在序列应用于不同的受试者时,方法有效地保持了不同的面部运动和独特的面部特征,表明了该方法在解耦身份和运动方面的有效性。

 

 

下图进一步说明了头部姿势和面部动态之间的有效解耦,通过保持一个方面不变并改变另一个方面,得到的图像忠实地反映了预期的头部和面部运动,而不会受到干扰,展示了处理训练分布之外的照片和音频输入的能力。

 

 

模型还可以处理艺术照片、歌唱音频片段(前两行)和非英语演讲(最后一行),并且这些数据变体不存在于训练数据集中。

 

 

定量评估

 

下表给出了VoxCeleb2和OneMin-32基准测试的结果。

 

 

在这两个基准测试中,该方法在所有评估指标上都取得了所有方法中最好的结果。

 

在音频嘴唇同步分数(SC和SD)方面,该方法远远优于其他方法,比真实视频产生更好的分数,是由于音频CFG的影响。

 

从CAPP分数上反映的结果来看,模型生成的姿势与音频的匹配效果更一致,尤其是在OneMin-32基准上。

 

根据∆P,头部运动也表现出最高的强度,但仍然与真实视频的强度仍有差距;并且FVD得分明显低于其他模型,表明该结果具有更高的视频质量和真实性。

参考资料:
https://arxiv.org/pdf/2404.10667.pdf




微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
数字社会|什么是数字人类学?Sora超逼真视频引恐慌!Nature刊文警示AI视频模型,或在2024年颠覆科学和社会恐怖谷!哥大华人开发「人脸机器人」,照镜子自主模仿人类表情超逼真2024年4月11-14日广州黄启团导师NLP专业执行师:一套「实用人性手册」,揭开自我改变的惊人秘密(二阶,可插班)Mamba再下一城!VideoMamba:高效视频理解的状态空间模型年年被传去世,他却凭一张照片震撼了1000w人:为热爱而死,是一种恩赐凯特在商店被偶遇,全网都翻不出一张照片?动物不会撒谎,也许小狗已经透露了真相......微软「诈骗届」王牌框架,真到可怕!一张照片+音频即可生成数字人Sora不开源,微软给你开源!全球最接近Sora视频模型诞生,12秒生成效果逼真炸裂芝加哥休假警察被枪杀!嫌疑人仍在逃!警方发布照片和视频!逆天 美国华裔学生开发人脸机器人 表情超逼真凯特真人视频流出!网友:忽肿忽瘦,两周大变,你跟我说这是凯特?!1:1模仿马斯克,我爱上了时间管理!突发!凯特王妃露面!一张照片击碎所有阴谋论凯特被曝突然现身商店,全网却找不到一张照片?!网友:太诡异了...AI刘强东007带货,背后大模型也就10亿参数,京东:我家数字人平均水平刘强东数字人将开启直播首秀;特斯拉全球裁员10%约1.4万人;保时捷中国总裁首度回应“米时捷”;理想辟谣车内摄像头拍摄不雅照片宇宙人(1484期)同比增长5.3%;国家天文台人工智能工作组发布大模型“星语3.0”​;刘强东数字人今天将开启直播首秀去年今日此门中----谷歌微软的神奇可怕记忆46秒AI生成真人视频爆火,遭在线打假「换口型、声音」最后的爬藤(小说)难以置信!全AI生成美女视频,46秒逼真神态骗过所有人CVPR 2024 | 面部+肢体动画,一个框架搞定从音频生成数字人表情与动作早鸟报|刘强东数字人将开启直播首秀;抖音有效粉丝数少于500的本地生活达人不能视频带货;华为官宣p系列品牌升级为pura...微软刚刚发布了VASA-1:单张照片生成超现实真人视频,还没开源但是性能SOTA凯特王妃露面!一张照片击碎所有阴谋论【天玉之浪漫爱情诗歌五十首】(2016-2018)大结局!"消失的凯特王妃" 终于露面!一张照片击碎所有阴谋论...「实习+督导+执业」,成为心理咨询师就差这一步!丨最后10天《扎基拉姆》&《一生的梦》AIGC时代数字化人才培养的密码,你掌握了吗?| DTDS 全球数字人才发展大会震惊!AI生成真人视频毫无瑕疵,台词随意变!HeyGen硬核升级数字人「人车交互」新突破!普渡大学发布Talk2Drive框架:可学习/定制的「指令识别」系统父亲与京华火腿突发!凯特王妃露面!一张照片击碎所有阴谋论!目击者称她看上去…
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。