Redian新闻
>
Stability AI开源上新:3D生成引入视频扩散模型,质量一致性up,4090可玩

Stability AI开源上新:3D生成引入视频扩散模型,质量一致性up,4090可玩

公众号新闻
鱼羊 发自 凹非寺
量子位 | 公众号 QbitAI

Stable Diffusion背后公司Stability AI又上新了。

这次带来的是图生3D方面的新进展:

基于Stable Video Diffusion的Stable Video 3D(SV3D),只用一张图片就能生成高质量3D网格。

Stable Video Diffusion(SVD)是Stability AI此前推出的高分辨率视频生成模型。也就是说,此番登场的SV3D首次将视频扩散模型应用到了3D生成领域

官方表示,基于此,SV3D大大提高了3D生成的质量和视图一致性。

模型权重依然开源,不过仅可用于非商业用途,想要商用的话还得买个Stability AI会员~

话不多说,还是来扒一扒论文细节。

将视频扩散模型用于3D生成

引入潜在视频扩散模型,SV3D的核心目的是利用视频模型的时间一致性来提高3D生成的一致性。

并且视频数据本身也比3D数据更容易获得。

Stability AI这次提供两个版本的SV3D:

  • SV3D_u:基于单张图像生成轨道视频。

  • SV3D_p:扩展了SV3D_u的功能,可以根据指定的相机路径创建3D模型视频。

研究人员还改进了3D优化技术:采用由粗到细的训练策略,优化NeRF和DMTet网格来生成3D对象。

他们还设计了一种名为掩码得分蒸馏采样(SDS)的特殊损失函数,通过优化在训练数据中不直接可见的区域,来提高生成3D模型的质量和一致性。

同时,SV3D引入了一个基于球面高斯的照明模型,用于分离光照效果和纹理,在保持纹理清晰度的同时有效减少了内置照明问题。

具体到架构方面,SV3D包含以下关键组成部分:

  • UNet:SV3D是在SVD的基础上构建的,包含一个多层UNet,其中每一层都有一系列残差块(包括3D卷积层)和两个分别处理空间和时间信息的Transformer模块。

  • 条件输入:输入图像通过VAE编码器嵌入到潜在空间中,会和噪声潜在状态合并,一起输入到UNet中;输入图像的CLIP嵌入矩阵则被用作每个Transformer模块交叉注意力层的键值对。

  • 相机轨迹编码:SV3D设计了静态和动态两种类型的轨道来研究相机姿态条件的影响。静态轨道中,相机以规律间隔的方位角围绕对象;动态轨道则允许不规则间隔的方位角和不同的仰角。

相机的运动轨迹信息和扩散噪声的时间信息会一起输入到残差模块中,转换为正弦位置嵌入,然后这些嵌入信息会被整合并进行线性变换,加入到噪声时间步长嵌入中。

这样的设计旨在通过精细控制相机轨迹和噪声输入,提升模型处理图像的能力。

此外,SV3D在生成过程中采用CFG(无分类器引导)来控制生成的清晰度,特别是在生成轨道的最后几帧时,采用三角形CFG缩放来避免过度锐化。

研究人员在Objaverse数据集上训练SV3D,图像分辨率为575×576,视场角为33.8度。论文透露,所有三种模型(SV3D_u,SV3D_c,SV3D_p)在4个节点上训练了6天左右,每个节点配备8个80GB的A100 GPU。

实验结果

在新视角合成(NVS)和3D重建方面,SV3D超过了现有其他方法,达到SOTA。


从定性比较的结果来看,SV3D生成的多视角试图,细节更丰富,更接近与原始输入图像。也就是说,SV3D在理解和重构物体的3D结构方面,能够更准确地捕捉到细节,并保持视角变换时的一致性。

这样的成果,引发了不少网友的感慨:

可以想象,在未来6-12个月内,3D生成技术将会被用到游戏和视频项目中。

评论区也总少不了一些大胆的想法……

并且项目开源嘛,已经有第一波小伙伴玩上了,在4090上就能跑起来。

如果你也有第一手实测体会,欢迎在评论区分享~

参考链接:
[1]https://twitter.com/StabilityAI/status/1769817136799855098
[2]https://stability.ai/news/introducing-stable-video-3d
[3]https://sv3d.github.io/index.html

报名中!

2024年值得关注的AIGC企业&产品

量子位正在评选2024年最值得关注的AIGC企业、 2024年最值得期待的AIGC产品两类奖项,欢迎报名评选

评选报名截至2024年3月31日 

中国AIGC产业峰会同步火热筹备中,了解更多请戳:Sora时代,我们该如何关注新应用?一切尽在中国AIGC产业峰会

商务合作请联络微信:18600164356 徐峰

活动合作请联络微信:18801103170 王琳玉


点这里👇关注我,记得标星噢

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见 ~ 

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
雷神 ZERO 大黄蜂 2024 游戏本配置上新:i9-14900HX + RTX4070,10999 元起七绝 合肥教弩台Sora之后,OpenAI Lilian Weng亲自撰文教你从头设计视频生成扩散模型【仙潭诗人补习课】CVPR 2024|生成不了光线极强的图片?微信视觉团队有效解决扩散模型奇点问题ICLR 2024 | 高分工作!Uni3D:3D基础大模型,刷新多个SOTA!Meta 如何将缓存一致性提高到 99.99999999最强开源大模型 Llama 3震撼发布!开源模型将追上GPT-4,4000亿参数模型也在路上SaaS 时代,如何确保 API 版本控制的一致性?比阿里EMO抢先开源!蔡徐坤“复出”唱RAP,腾讯AniPortrait让照片变视频,鬼畜区UP狂喜!看看哪家效果好分布式一致性协议与算法:没你想的那么简单 | 极客时间生成扩散模型漫谈:信噪比与大图生成(下)曝小扎写信“挖角”DeepMind;我国10亿级参数大模型超百个;Stability AI开源代码生成模型丨AIGC大事日报LeCun转发!大连理工卢湖川、贾旭团队提出可插入图像/视频/3D生成的StableIdentity【万水千山,一起走遍】Jan Jose, Costa Rica检索增强生成引擎 RAGFlow 正式开源!仅一天收获上千颗星Sora不开源,微软给你开源!全球最接近Sora视频模型诞生,12秒生成效果逼真炸裂巧解「数据稀缺」问题!清华开源GPD:用扩散模型生成神经网络参数|ICLR 2024何恺明谢赛宁团队步步解构扩散模型,最后竟成经典去噪自编码器ICLR 2024 | Adobe提出DMV3D:3D生成只需30秒!让文本、图像都动起来的新方法!扩散模型更懂复杂提示词!Pika北大斯坦福开源新框架,利用LLM提升理解力Stable Video 3D重磅开源!3D生成迎来新突破!Stable Video 3D震撼登场:单图生成无死角3D视频、模型权重开放三层世界:老年痴呆症最有用的预防,而且最简单最新综述!3D生成进展的全面调研底层视觉大模型!董超团队新作SUPIR:扩散生成先验的图像复原统一角色、百变场景,视频生成神器PixVerse被网友玩出了花,超强一致性成「杀招」ICLR 2024 | 阐明扩散模型中的曝光偏差问题,一行代码大幅提升生成质量Stability AI杀回来了:视频生成新Demo效果惊人,网友:一致性超群异国他乡白喜事Champ首发开源:人体视频生成新SOTA,5天斩获1k星,demo可玩3D版Sora来了?UMass、MIT等提出3D世界模型,具身智能机器人实现新里程碑重塑3D生成核心理论:VAST、港大、清华用「零」训练数据生成了3D模型Stability AI开源3B代码生成模型:可补全,还能Debug知名学者与顶级投资人领衔!视频、3D、音乐生成玩家都来了,中国生成式AI大会嘉宾阵容更新,4月开启!
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。