Redian新闻
>
类数值方法PNDM:Stable Diffusion默认加速采样方案

类数值方法PNDM:Stable Diffusion默认加速采样方案

科技

©PaperWeekly 原创 · 作者 | 刘路平

单位 | 浙江大学

研究方向 | 扩散模型

扩散模型 [1](diffusion model)通过逐步迭代的方式建立起高斯分布和数据分布的对应,将深度生成模型提升到了新的高度。扩散模型生成结果的细节准确性和样本丰富度都给人留下了深刻的印象。

然而,扩散模型需要成百上千次的迭代来得到最终的结果,巨大的计算开销阻碍了扩散模型的应用和落地。我们深入分析扩散模型的迭代公式,通过引入数值分析中的高阶数值方法,并与扩散模型中的无随机项迭代法(DDIM)相结合,设计出适合扩散模型的高阶快速迭代方法。

在今年的 ICLR 2022 上,我们提出了全新的适用于扩散模型的类数值方法(PNDM)。这一方法既不需要重新训练模型,也对模型结构和超参数没有额外的限制,仅仅通过修改迭代公式,将扩散模型无任何精度损失加速 20 倍,迭代 50 步就可以达到原来 1000 步的 FID 结果。我们的方法被应用到 Stable Diffusion [2,7] 中,作为其默认加速采样算法。


论文标题:
Pseudo Numerical Methods for Diffusion Models on Manifolds

论文链接:

https://openreview.net/forum?id=PlKWVd2yBkY

代码链接:

https://github.com/luping-liu/PNDM




研究背景

降噪扩散概率模型 [1](DDPM)通过逐步加噪的方式建立目标数据分布和高斯分布之间的对应,并通过它的逆过程降噪过程生成新的目标样本。

具体来说, 是训练数据,加噪迭代过程满足:

这里, 控制加噪的速度。进一步我们可以得到 的关系:
这里,, 。根据 DDPM 和 DDIM [3] 的分析,对应的降噪迭代公式满足:

这里, 是用神经网络对带噪样本 中的噪声的估计, 控制着迭代中添加随机噪声的比例。当 ,在降噪过程中不添加任何新的随机噪声,也就是无随机项迭代法(DDIM)。我们将其记为:



研究思路
扩散模型的迭代可以关于 取极限后转化为求解一个常微分方程,对应的常微分方程满足:

进而可以通过使用高阶的数值方法进行加速。然而,通过实验,我们发现这种直接的套用效果并不好。在有些情况下,四阶的数值方法甚至不如一阶的 DDIM。通过对扩散模型的方程深入分析,我们发现这里存在两个问题:
  1. 这个常微分方程并不满足数值方法要求的 Lipschitz 连续性。换句话说,他的梯度是会趋于无穷的,这影响了数值方法的对梯度的拟合,也限制了最终的生成效果。
  2. 这个常微分方程包含一个神经网络。这意味着方程并不是在整个欧氏空间里有定义,而是只有神经网络被训练过的区域上,才能真实反映数据的梯度和走向。一旦迭代过程中跑出训练数据集中的区域,迭代过程就会出现震荡甚至发散的情况。

为了解决这两个问题,我们的思路是,直接在原本的迭代算法上,设计新的高阶数值方法。而不是像之前的方法,先将原本离散的扩散模型迭代先连续化为微分方程,再反过来通过数值方法离散化求解。这样就解决了第一个问题,因为我们并非使用经典数值方法,也就避免了方程不满足 Lipschitz 连续性的问题。

另一方面,对于具体如何改进原始迭代公式,我们发现了一个重要的性质,如果迭代过程中的噪声项 可以被 准确拟合,那么通过 我们就可以直接得到精确的 。因此,我们只需要拟合出更精确的噪声项 就可以了。迭代公式的其他部分并不引入误差,也不需要进一步的修正。明确了优化的目标后,我们就可以通过高阶数值方法对目标 进行修正,来达到加速的效果。

这也很大程度上解决了第二个问题,因为不需要整体改变迭代公式,这保证了迭代生成的轨迹和原始 DDIM 迭代公式相似。而 DDIM 的迭代公式恰恰可以保证生成数据和训练数据符合相同的分布。因此迭代过程可以大概率落在训练数据集中的高密度区域,不会跑出原始数据分布。先连续化再离散的策略则破坏了这种一致性,这也是 DDIM 能好于直接套用四阶数值方法的原因。

我们的方法融合了 DDIM 和高阶数值方法方法的优点,既保证了拟合分布,也提升了收敛速度。实验结果如下图所示:

具体来说,我们的方法是在原始的 DDIM 的方法上:

对其中的 项使用线性多步法做四阶修正,这一方法称作类线性多步法(PLMS):

线性多步法可以在没有额外开销的情况下,提升收敛阶数。但是,这一方法是不能自启动的,需要额外的方法提供开始的三步的数据。这里我们使用 Runge-Kutta 方法计算前三步,这一方法称作类 Runge-Kutta 法(PRK):

这虽然会在一开始造成额外的开销,但是可以有效防止一开始造成较大误差并在后面的迭代中不断累积放大,这也保证了方法整体的收敛阶数。这两种子方法合在一起被称作类数值方法(PNDM),即:




方法扩展

上面的思路和方法是我们论文中的主要方法,但在具体落地应用中,又有了一些有趣的变化和拓展。
3.1 快速启动
使用 Runge-Kutta 法启动方法会有额外的开销,在总的迭代步数相对较少时,这个开销是不可忽视的。在这种情况下,可以选择依次使用一二三阶的类线性多步法 [4] 启动迭代过程,这样每一步都没有了额外的开销,反而能在一些情况下取得更好的效果。
3.2 剪裁

我们的方法并没有破坏 DDIM 的迭代逻辑,只是增加了额外的一项修正。因此,其他可以提升 DDIM 迭代效果的方法也可以直接使用到我们的方法上。其中的重要代表就是数据剪裁 [5],因为迭代过程还是存在中间过程跑出数据分布的情况,通过剪裁就可以进一步避免这种情况的发生。我们的方法可以直接将:

替换为对应的:

这样就将剪裁集成到了我们的方法中,对于更一般的动态剪裁 ,方法也是类似的。这里用到了 这一项代表了对 的估计。
3.3 条件生成
我们的方法不仅仅可以用来做无条件生成,还可以用来加速有条件生成。以无分类器指导的条件生成 [6为例,这种条件生成通过修改 来实现。即将迭代公式中的 修改为:

这里, 为添加的条件, 控制条件指导的强度。这样简单替换就可将我们的方法用于加速条件生成。由此可以看到,我们的方法和 DDIM 保持了一致,都可以非常方便地进一步对包括 在内的中间项进行调整和优化,从而可以被应用到广泛的落地场景中。
可以说,我们的类数值方法 PNDM 为扩散模型的落地扫除了计算速度上的重要障碍。目前,PNDM 被 AI 内容生成独角兽公司 Stability AI 的 AI 绘图平台 stable diffusion [2,7] 用作默认加速采样算法,并被包括 AI 开源平台 huggingface 的 diffusers [8] 和浙大语音合成项目 DiffSinger [9] 等多个开源库收录和使用。欢迎大家都来多多关注和使用我们的开源项目。


参考文献

[1] Jonathan Ho, Ajay Jain, and Pieter Abbeel. Denoising diffusion probabilistic models. Advances in Neural Information Processing Systems 33 (2020): 6840-6851. 
[2] Rombach R, Blattmann A, Lorenz D, et al. High-resolution image synthesis with latent diffusion models. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2022: 10684-10695. 
[3] Jiaming Song, Chenlin Meng, and Stefano Ermon. Denoising Diffusion Implicit Models. International Conference on Learning Representations. 2021. 
[4] Zhang Q, Chen Y. Fast Sampling of Diffusion Models with Exponential Integrator. arXiv preprint arXiv:2204.13902, 2022. 
[5] Saharia C, Chan W, Saxena S, et al. Photorealistic Text-to-Image Diffusion Models with Deep Language Understanding. arXiv preprint arXiv:2205.11487, 2022. 
[6] Ho J, Salimans T. Classifier-free diffusion guidance. arXiv preprint arXiv:2207.12598, 2022. 
[7] https://github.com/CompVis/stable-diffusion 
[8] https://github.com/huggingface/diffusers 
[9] https://github.com/MoonInTheRiver/DiffSinger

更多阅读



#投 稿 通 道#

 让你的文字被更多人看到 



如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。


总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 


PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。


📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算


📬 投稿通道:

• 投稿邮箱:[email protected] 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿


△长按添加PaperWeekly小编



🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧


·

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
Stable Diffusion入侵短视频,华人导演玩得太6,小扎都来请她Stable Diffusion背后公司再融1亿美金,网友:资本的盛宴,艺术家却分不到一杯羹?Stable Diffusion再迎重磅更新!2.0版「涩图」功能被砍,网友狂打差评3D暴龙模型塞进侏罗纪公园只需一部手机,拍摄角度360°可选,Stable Diffusion又被玩出新花样Soft Diffusion:谷歌新框架从通用扩散过程中正确调度、学习和采样18秒完成渲染!苹果Core ML官宣深度支持Stable Diffusion 2.0Stable Diffusion团队开撕!“背后公司”刚成独角兽,最新版本遭原作者抢发:这是我们的南半球的油菜花开啦生成式 AI 火了,Stable Diffusion 幕后开发公司 Stability AI 宣布获得 1 亿美元融资「最牛AI艺术家」Stable Diffusion有多值钱?种子轮融资即晋升独角兽!特斯拉前AI主管出手,Stable Diffusion使用体验拉上一个台阶,还可白嫖算力亚栗“PK”欧美栗,和栗“PO”中华粟首个中文Stable Diffusion模型背后的技术:IDEA研究院封神榜团队揭秘2022出圈的ML研究:爆火的Stable Diffusion、通才智能体Gato,LeCun转推Stable Diffusion采样速度翻倍!仅需10到25步的扩散模型采样算法我在中美两国当工人的不同感受网友白嫖画师原作训练Stable Diffusion引正主不满:未经同意,说用就用?告诉Stable Diffusion 2.0你不想要什么,生成效果更好:Negative Prompt显奇效StableDiffusion嵌入现实世界,能在墙上直接长出小猫咪,手机可玩Stable Diffusion 2.1版本发布,涩图功能回来了?神秘的古老之光:埃及阿布神庙文件更小,质量更高,大火的Stable Diffusion还能压缩图像?图像生成模型 Stable Diffusion 现已开源 | Linux 中国Stable Diffusion、DreamFusion、Make-A-Video、Imagen Video 和下一步加斯佩半岛自驾 (八)看得到巨石的房间AI绘画神器Stable Diffusion的疯狂与危险新晋独角兽陷纠纷!「AI艺术大师」stable diffusion到底归谁所有?把Stable Diffusion模型塞进iPhone里,做成APP一分钟出图Stable Diffusion的魅力:苹果亲自下场优化,iPad、Mac上快速出图1.01亿美元融资,为Stable Diffusion捐赠算力的公司两年成为独角兽1.01亿美元融资,Stable Diffusion背后的公司两年迅速成长为AI内容生成独角兽Stable Diffusion新玩法,一句话帮你换图,网友魔改《戴珍珠耳环的少女》长这样NeurIPS 2022 | Stable Diffusion采样速度翻倍!清华提出扩散模型高效求解器首个中文Stable Diffusion模型开源,IDEA研究院封神榜团队开启中文AI艺术时代Stable Diffusion背后的故事:独辟蹊径,开源和社区驱动的AI独角兽 | 创始人专访
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。