Redian新闻
>
谷歌新作:基于扩散模型的视频生成

谷歌新作:基于扩散模型的视频生成

公众号新闻


MLNLP社区是国内外知名的机器学习与自然语言处理社区,受众覆盖国内外NLP硕博生、高校老师以及企业研究人员。
社区的愿景是促进国内外自然语言处理,机器学习学术界、产业界和广大爱好者之间的交流和进步,特别是初学者同学们的进步。
转载自 | PaperWeekly
作者 | 张旭
单位 | PaddleNLP
研究方向 | NLP/AIGC

1

『引言』

最近一段时间,扩散模型在文图生成领域可谓名声大噪。实际上,扩散模型可以应用到各类 AIGC 任务上,除文图生成为代表的图片生成外,扩散模型还可以进行音频生成、时间序列生成、3D 点云生成、文本生成。
而这篇论文,即 Video Diffusion Models,就将扩散模型用到了视频生成任务上,本文将对该论文展开讲解。该论文官方没有公开源码,但是有一些基于该论文的相关开源工作,比如 PaddleNLP 的 PPDiffusers,本文后续也会结合相关代码进行讲解。该论文一作作者为 Jonathan Ho 和 Tim Salimans,来自于谷歌,论文目前已被 NeurIPS 2022 接收。

论文标题:

Video Diffusion Models

论文来源:
NeurIPS 2022
论文链接:
https://arxiv.org/abs/2204.03458

2

『论文贡献』

论文的主要贡献如下:
这是第一个使用扩散模型进行视频生成任务的论文工作,这里的视频生成任务包括无条件和有条件两种设定。
论文针对扩散模型中的 UNet 网络结构进行修改,使其适用于视频生成任务,提出了 3D UNet,该架构使用到了 space-only 3D 卷积和时空分离注意力。这种时空分离注意力的 UNet 可以应用在可变序列长度上,因此可以在视频和图像建模目标上进行联合训练。
为了生成比训练时帧数更多的视频,论文还展示了如何使用梯度条件法进行重构指导采样,从而可以自回归地将模型扩展到更长的时间步长和更高的分辨率。

3

『方法』


3.1 3D UNet

论文提出的视频生成方法基于标准的扩散模型(即高斯扩散模型),最核心的改进在于对作为 backbone 的 UNet 网络架构的修改,从而让扩散模型适应视频生成任务。
在图像生成任务上的扩散模型所用到的 UNet 网络架构通常来自 PIXELCNN++ 改进版本,它先进空间下采样(spatial downsampling)然后进行空间上采样(spatial upsampling),其中在进行每一步空间上采样时都通过跳跃连接(skip connections)来同对应步的下采样过程的特征图进行联系。
网络上采样和下采样的基本单元都是 2D 卷积残差块(2D convolutional residual blocks),只是在改进的版本中,为了能够引入文本这类的条件信息,每个 2D 卷积残差块后面还跟着一个注意块或者说空间注意块(spatial attention block)。
论文将这一图像扩散模型架构扩展至视频,Video Diffusion Models 提出了 3D UNet 架构。具体来说,该架构将原 UNet 中的 2D 卷积替换成了 space-only 3D 卷积(space-only 3D convolution),举例来说,如果原来用的是 3x3 卷积,那么现在就要把它替换为 1x3x3 卷积(其中第一个维度对应视频帧,即时间维度,第二个和第三个维度对应帧高和帧宽,即空间维度,由于第一个维度是 1 所以对时间没有影响只对空间有影响)。
随后的空间注意块仍然保留,但只针对空间维度进行注意力操作,也就是把时间维度 flatten 为 batch 维度。在每个空间注意块之后,新插入一个时间注意块(temporal attention block),该时间注意块在第一个维度即时间维度上执行注意力,并将空间维度 flatten 为 batch 维度。
论文在每个时间注意力块中使用相对位置嵌入(relative position embeddings),以便让网络能够不依赖具体的视频帧时间也能够区分视频帧的顺序。这种先进行空间注意力,再进行时间注意力的方式,可以称为时空分离注意力(factorized space-time attention)。3D UNet 模型的整体架构如下图所示。
▲ 3D UNet模型整体架构
其中每个方块都代表一个四维的张量(即frames × height × width × channels),该图中每个方块的纵轴长度表示张量的长或宽大小(即 height 或width ),横轴长度表示张量的通道大小(即 channels)。
输入是噪音视频 、条件 以及 log SNR ,下采样或上采样中块与块之间的空间分辨率(即 height × width)调整比率是 2,使用通道乘子(channel multipliers) 来指定通道的数目。模型通过卷积和时空分离注意力的方式来处理每一个块,在进行每一步空间上采样时都通过跳跃连接来同对应步的下采样过程的特征图进行联系。

这种时空分离注意力的方式有一个好处是可以对视频和图片生成进行联合建模训练。就是说可以在每个视频的最后一帧后面添加随机的多张图片,然后通过掩码的方式来将视频以及各图片进行隔离,从而让视频和图片生成能够联合训练起来,论文在实验部分也对这种联合建模训练的方式其进行了探索。

3.2 重构指导采样

论文的另一个主要创新是为无条件扩散模型提供了一种条件生成的方法。这种条件生成方法称为梯度条件法(gradient conditioning method),它修改了扩散模型的采样过程,使用基于梯度优化的方式来改善去噪数据的条件损失(conditioning loss),从而可以让生成的视频通过自回归地方式扩展至更长的时间步和更高的分辨率。
由于梯度条件法中所使用的附加梯度项可以解释为一种额外的指导,而这种指导其实基于模型对条件数据的重建,因此论文将该方法称为重建引导采样(reconstruction-guided sampling),或简单地称为重建指导(reconstruction guidance)。
在训练的阶段,由于计算资源限制,往往只能在一个固定的帧数下面训练一个视频,而且这个帧数往往很短(比如论文中的 16 帧)。但是在采样(推理)阶段,我们可以先生成一个 16 帧的视频 ,然后在这个基础上拓展得到第二个视频 ,这样一来就可以通过自回归的方式拓展采样的视频到任意长度。但是这种采样方式需要我们显式地训练一个条件生成模型 ,或者通过插值的方式从无条件生成模型 近似得到。
之前的工作通常都是通过“替换法”来进行自回归视频拓展,简单来说替换法就是对两条件样本进行联合训练 ,但是在扩散模型前向的具体过程中 对应的部分保持正常的迭代更替,而 对应的部分被替换为一个固定的 或者 ,也就是始终需要参考
论文认为这种方式下 对应的部分的更替仅仅是 ,而真正理想的更替应该是 ,这样才能够和上一个视频有更好的一致性。论文将上述更替方案改写为 ,它使用基于梯度优化的方式来改善去噪数据的条件损失,提出的条件重构采样,其公式如下:
论文发现,在确保生成样本与条件信息的一致性方面,梯度条件法比之前的方法更加有效。下图左为利用梯度条件法通过自回归方式拓展得到的视频帧,图右为利用基线的替换(replacement)法通过自回归方式拓展得到的视频帧。可以看到,使用梯度条件法采样的视频比基线方法具有更好的时间一致性。
▲ 梯度条件法(左)和基线“替换”法(右)在自回归扩展下生成的视频帧。与基线方法相比,使用梯度条件法采样的视频获得了更好的时间一致性。


4

『实验』

论文在无条视频生成(Unconditional video modeling)、视频预测(Video prediction)、文本条件视频生成(Text-conditioned video generation)三个任务上进行了实验和评估。

4.1 无条件视频生成

无条件视频生成使用 Soomro 数据集。论文对该数据集的 16 帧短视频片段进行建模,并下采样到 64x64  的空间分辨率。实验对比结果如下,相比之前的模型取得了新的 SOTA 结果:

4.2 视频预测

视频预测任务是指给定视频的第一帧预测剩余的帧,它是一个有条件的视频生成任务。论文使用前面所说的重构指导采样来进行该任务。论文在 BAIR Robot Pushing 和 Kinetics-600 两个数据集上进行实验,实验结果如下,同样达到了新的 SOTA 水平:


4.3 文本条件视频生成

在该任务中,论文使用了 1 千万的带标题视频(captioned videos)作为训练数据。论文使用 BERT-large 获取标题的词嵌入表征作为扩散模型的条件输入。论文对视频-图片联合训练(joint video-image training)、无分类器指导(classifier-free guidance)、自回归视频拓展(autoregressive video extension for longer sequences)进行了探索。

对于视频-图片联合训练,下表展示了文本条件下,16x64x64 视频的实验结果,每个视频有额外的 0、4 或 8 个独立图像帧进行联合训练。可以看到,随着添加更多独立的图像帧,采样视频和图像的样本质量明显改善。

对于无分类器指导,在文本条件视频生成任务中增加指导可以提高每帧图片的保真度(fidelity),增强条件信号的效果。下表展示了不同指导权重(guidance weight)下的指标,可以看到更高指导权重下 IS 指标上的表现有着明显的提升,而 FID 指标表现上随着指导权重的增加先提升后下降,这个结果也和之前文本条件图片生成的结果一致。

对于自回归视频拓展,论文对比了重构指导采样(reconstruction guidance)和替换法(replacement)生成视频的效果,并发现这种方法的确实优于替换法,对比结果如下表所示:


5

『效果展示』

参考文献

https://arxiv.org/pdf/2204.03458.pdf

https://video-diffusion.github.io/

https://github.com/PaddlePaddle/PaddleNLP/tree/develop/ppdiffusers


技术交流群邀请函

△长按添加小助手

扫描二维码添加小助手微信

请备注:姓名-学校/公司-研究方向
(如:小张-哈工大-对话系统)
即可申请加入自然语言处理/Pytorch等技术交流群

关于我们

MLNLP 社区是由国内外机器学习与自然语言处理学者联合构建的民间学术社区,目前已经发展为国内外知名的机器学习与自然语言处理社区,旨在促进机器学习,自然语言处理学术界、产业界和广大爱好者之间的进步。
社区可以为相关从业者的深造、就业及研究等方面提供开放交流平台。欢迎大家关注和加入我们。

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
谷歌新作Imagic:扩散模型只用文字就能PS照片了!网友:效果太震撼...斯坦福/谷歌大脑:两次蒸馏,引导扩散模型采样提速256倍!​生成扩散模型漫谈:构建ODE的一般步骤(下)卷!MIT泊松流生成模型击败扩散模型,兼顾质量与速度卷!MIT提出泊松流生成模型击败扩散模型,兼顾质量与速度GAN强势归来?英伟达耗费64个A100训练StyleGAN-T,优于扩散模型京东:基于多类目MoE模型的电商搜索引擎Transformer如何做扩散模型?伯克利最新《transformer可扩展扩散模型》论文疫情以来的首个晚宴生成扩散模型漫谈:从万有引力到扩散模型谷歌Imagen首次开放测试,安卓苹果都能玩,还有AI写作助手、超长连贯性视频生成模型物理改变图像生成:扩散模型启发于热力学,比它速度快10倍的挑战者来自电动力学7 Papers & Radios | 扩散模型只用文字PS照片;MIT泊松流生成模型击败扩散模型Hinton组新作:基于大型全景掩码的实例分割框架,图像视频场景丝滑切换生成扩散模型漫谈:统一扩散模型(理论篇)东京在召唤7-暴走东京挪威交响诗 (八)从弗洛姆Flam—到盖朗厄尔Geiranger 登仙一处浅谈扩散模型的有分类器引导和无分类器引导一颗GPU,秒出3D模型!OpenAI重磅新作:Point-E用文本即可生成三维点云模型她爱上枪侠,甩了ABC?扩散模型再下一城!AR-LDM:用扩散模型合成连贯视觉故事!输入字幕就能脑补画面,代词ta都分得清​生成扩散模型漫谈:条件控制生成结果只需3个样本一句话,AI就能定制照片级图像,谷歌在玩一种很新的扩散模型生成扩散模型漫谈:构建ODE的一般步骤(上)7 Papers & Radios | 谷歌推出DreamBooth扩散模型;张益唐零点猜想论文出炉生成扩散模型漫谈:“硬刚”扩散ODE统治扩散模型的U-Net要被取代了,谢赛宁等引入Transformer提出DiT开挖扩散模型小动作,生成图像几乎原版复制训练数据,隐私要暴露了从多篇论文看扩散模型在文本生成领域的应用给搞不懂中国大胜美国与中国大败美国的差别的朋友们支一招
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。