Redian新闻
>
SIGGRAPH2023|DreamFace:一句话生成 3D 数字人?

SIGGRAPH2023|DreamFace:一句话生成 3D 数字人?

公众号新闻

机器之心专栏

机器之心编辑部


在科技迅速发展的今天,生成式人工智能和计算机图形学领域的研究日益引人注目,影视制作、游戏开发等行业正面临着巨大的挑战和机遇。本文将为您介绍一项 3D 生成领域的研究 ——DreamFace,它是首个支持 Production-Ready 3D 资产生成的文本指导渐进式 3D 生成框架,能够实现文本生成可驱动的 3D 超写实数字人。


这项工作已经被计算机图形领域国际顶级期刊 Transactions on Graphics 接收,并将在国际计算机图形顶级会议 SIGGRAPH 2023 上展示。



项目网站:https://sites.google.com/view/dreamface
预印版论文:https://arxiv.org/abs/2304.03117
Web Demo: https://hyperhuman.top
HuggingFace Space:https://huggingface.co/spaces/DEEMOSTECH/ChatAvatar


引言


自文本和图像生成技术取得巨大突破以来,3D 生成技术逐渐成为了科研和产业界关注的焦点。然而,目前市面上的 3D 生成技术仍然面临着许多挑战,包括 CG 管线兼容性问题、准确性问题以及运行速度问题。


为了解决这些问题,来自影眸科技与上海科技大学的研发团队提出了一种文本指导的渐进式 3D 生成框架 ——DreamFace。该框架能够直接生成符合 CG 制作标准的 3D 资产,具有更高的准确性、更快的运行速度和较好的 CG 管线兼容性。本文将对 DreamFace 的主要功能进行详细介绍,并探讨其在影视制作、游戏开发等行业的应用前景。


DreamFace 框架概述



DreamFace 框架主要包括三个模块:几何体生成、基于物理的材质扩散生成和动画能力生成。这三个模块相辅相成,共同实现了一种高效而可靠的 3D 生成技术。


几何体生成



几何体生成模块的核心任务是根据文本提示生成与之一致的几何模型。DreamFace 采用了基于 CLIP(Contrastive Language-Image Pre-Training)的选择框架,首先从人脸几何参数空间内随机采样的候选项中选择最佳的粗略几何模型,然后通过隐式扩散模型(LDM)雕刻几何细节,使头部模型更符合文本提示。此外,该框架还支持基于文本提示的发型和颜色生成。



基于物理的材质扩散生成


基于物理的材质扩散生成模块旨在预测与预测几何体和文本提示一致的面部纹理。DreamFace 首先将预先训练的 LDM 在收集的大规模 UV 材质数据集上微调,得到两个 LDM 扩散模型。然后,采用联合训练方案协调两个扩散过程,一个用于直接去噪 UV 纹理贴图,另一个用于监督渲染图像。



为了确保所创建的纹理地图不含有不良特征或照明情况,同时仍保持多样性,设计了一种提示学习策略。团队利用两种方法生成高质量的漫反射贴图:(1)Prompt Tuning。与手工制作的特定领域文本提示不同,DreamFace 将两个特定领域的连续文本提示 Cd 和 Cu 与相应的文本提示结合起来,这将在 U-Net 去噪器训练期间进行优化,以避免不稳定和耗时的手工撰写提示。(2)非面部区域遮罩。LDM 去噪过程将额外地受到非面部区域遮罩的限制,以确保生成的漫反射贴图不含有任何不需要的元素。


最后,通过超分辨率模块生成 4K 基于物理的纹理,以进行高质量渲染。



动画能力生成



DreamFace 生成的模型具备动画能力。通过预测独特的变形,为生成的静息(Neutral)模型赋予动画效果,从而产生个性化的动画。与使用通用 BlendShapes 进行表情控制的方法相比,DreamFace 的神经面部动画方法能够提供更细致的表情细节,并且能够精细地捕捉表演。



应用和展望



DreamFace 框架在名人生成、根据描述生成角色等方面取得了优异的成绩。此外,还支持使用提示和草图进行纹理编辑,实现全局的编辑效果,如老化和化妆。通过进一步结合掩模或草图,可以创建各种效果,如纹身、胡须和胎记。


DreamFace 的渐进式生成框架为解决复杂的 3D 生成任务提供了一种有效的解决方案,有望推动更多类似的研究和技术发展。此外,基于物理的材质扩散生成和动画能力生成将推动 3D 生成技术在影视制作、游戏开发和其他相关行业的应用,让我们拭目以待它在未来的发展和应用。




© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
一句话生成3D游戏世界!9人开发、AIGC支撑的Roleverse是啥?室温超导是否真在美国实现了?对话生命盾联合创始人Dr. Tim Kaufmann教授:带领一支国际化队伍,扎根中国生命支持赛道【𝐂𝐚𝐥𝐧𝐢𝐊𝐞𝐚𝐧双皮奶无痕内裤】49元三条!巨巨巨好穿 !!简直就是辣妹顶配,食品级冰箱收纳盒【一日团】用一句话生成一部剧本,一览科技是怎么做到的?5分钟生成漫威3D数字人!美队蜘蛛侠小丑都能搞定,高清还原面部细节丨SIGGRAPH 2023SIGGRAPH 2023|DreamFace:一句话生成3D数字人?CVPR 2023|Crowd3D:支持数百人3D/姿态/形状/位置重建的新基准一句话生成 PPT,一分钟读懂外语论文,WPS AI 又进化了!【2023|Greenhouse现房来了!】【3.15更新】DragGAN开源三天Star量23k,这又来一个DragDiffusion斯里兰亚:亚洲首个接受IMF监督的国家,但穆迪说:IMF救助并非“灵丹妙药”。OpenAI再发3D生成模型Shap-E,传Midjourney入局3D模型生成CVPR 2023|Crowd3D:数百人大场景3D位置、姿态、形状重建,开源benchmark数据集视频版Midjourney又进化了:一句话生成视频,谷歌注资,网友大呼好莱坞已死!发力推广数字人民币!这一省农信社新目标明确:争当数字人民币全国标杆CVPR 2023|两行代码高效缓解视觉Transformer过拟合,美图&国科大联合提出正则化方法DropKeyCVPR'23|一张图重建3D人物新思路:完美复刻复杂动作和宽松衣物,遮挡也不在话下证件照转数字人只需几秒钟,微软实现首个3D扩散模型高质量生成效果,换装改形象一句话搞定 | CVPR 2023微软3D生成扩散模型RODIN,秒级定制3D数字化身日本女性的不婚(二)【科普】伊大校友 | 社会正义的有力倡导者Mildred Barnes Griggs城市之前,成为城市|大马设计 & Sync+Lab|DEEP GREENCVPR 2023|无需标注数据,「3D理解」进入多模态预训练时代!ULIP系列全面开源,刷新SOTACVPR2023|天大联合卡迪夫大学发布SemanticHuman:部件级、精细语义、灵活可控的3D人体编辑表征ICLR 2023|场景三维重建新SOTA!基于3D Transformer的单目场景重建AI越来越神:7人团队开发,一句话生成3D游戏的MoonlanderAI是啥微档--师昌绪美国入境档案美国入境档案--吴大昌单卡30秒跑出虚拟3D老婆!Text to 3D生成看清毛孔细节的高精度数字人,无缝衔接Maya、Unity等制作工具糖画:3D打印的东方美学|PRINT IN MYWAY|DEEP GREEN全球首发!一句话生成可编辑的 UI 设计稿,全新「即时 AI」开启万人内测!RT FORUM 2023|锐捷网络助力城轨行业数字化转型,构建绿色智慧城轨新蓝图40岁蒋欣同框41岁孙俪,差一岁像隔辈!一个风姿卓越一个老气横秋基于扩散模型的音频驱动说话人生成,云从&上交数字人研究入选ICASSP 2023
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。