Redian新闻
>
CVPR 2024|生成不了光线极强的图片?微信视觉团队有效解决扩散模型奇点问题

CVPR 2024|生成不了光线极强的图片?微信视觉团队有效解决扩散模型奇点问题

公众号新闻

机器之心专栏

机器之心编辑部


扩散模型凭借其在图像生成方面的出色表现,开启了生成式模型的新纪元。诸如 Stable Diffusion,DALLE,Imagen,SORA 等大模型如雨后春笋般涌现,进一步丰富了生成式 AI 的应用前景。然而,当前的扩散模型在理论上并非完美,鲜有研究关注到采样时间端点处未定义的奇点问题。此外,奇点问题在应用中导致的平均灰度等影响生成图像质量的问题也一直未得到解决。

为了解决这一难题,微信视觉团队与中山大学合作,联手探究了扩散模型中的奇点问题,并提出了一个即插即用的方法,有效解决了初始时刻的采样问题。该方法成功解决了平均灰度问题,显著提升了现有扩散模型的生成能力。这一研究成果已在 CVPR 2024 会议上发表。

扩散模型在多模态内容生成任务中取得了显著的成功,包括图像、音频、文本和视频等生成。这些模型的成功建模大多依赖于一个假设,即扩散过程的逆过程也符合高斯特性。然而,这一假设并没有得到充分证明。特别是在端点处,即 t=0 或 t=1,会出现奇点问题,限制了现有方法对奇点处采样的研究。

此外,奇点问题也会影响扩散模型的生成能力,导致模型出现平均灰度问题,即难以生成亮度强或者弱的图像,如图下所示。这在一定程度上也限制了当前扩散模型的应用范围。

为了解决扩散模型在时间端点处的奇点问题,微信视觉团队与中山大学合作,从理论和实践两个方面展开了深入探究。首先,该团队提出了一个包含奇点时刻逆过程近似高斯分布的误差上界,为后续研究提供了理论基础。基于这一理论保障,团队对奇点处的采样进行了研究,并得出了两个重要的结论:1)t=1 处的奇点可以通过求取极限转化为可去奇点,2)t=0 处的奇点是扩散模型的固有特性,不需要规避。基于这些结论,该团队提出了一个即插即用的方法:SingDiffusion,用于解决扩散模型在初始时刻采样的问题。

通过大量的实验验证表明,仅需训练一次,SingDiffusion 模块即可无缝应用到现有的扩散模型中,显著地解决了平均灰度值的问题。在不使用无分类器指引技术的情况下,SingDiffusion 能够显著提升当前方法的生成质量,特别是在应用于 Stable Diffusion1.5(SD-1.5)后,其生成的图像质量更是提升了 33%
 


论文地址:https://arxiv.org/pdf/2403.08381.pdf
项目地址:https://pangzecheung.github.io/SingDiffusion/
论文题目:Tackling the Singularities at the Endpoints of Time Intervals in Diffusion Models

逆过程的高斯特性

为了研究扩散模型的奇点问题,需要验证全过程包含奇点处的逆过程满足高斯特性。首先定义为扩散模型的训练样本,训练样本的分布可以表示为:


其中 δ 表示狄拉克函数。根据 [1] 中连续时间扩散模型的定义,对于任意两个时刻 0≤s,t≤1,正向过程可以表示为:
 


其中随着时间单调的从 1 变化到 0。考虑到刚刚定义的训练样本分布,的单时刻边际概率密度可以表示为:


由此,可以通过贝叶斯公式计算逆过程的条件分布:



然而,得到的分布是混合高斯分布,难以用网络进行拟合。因此,主流的扩散模型通常假设这一分布可以由单个高斯分布拟合:



其中,为了验证这一假设,该研究在 Proposition 1 中估计了这一拟合的误差。


然而,该研究发现当 t=1 时,随着 s 趋近 1,也将趋近于 1,误差无法忽略。因此,Proposition 1 并不能证明 t=1 时的逆向高斯特性。为了解决这一问题,该研究给出了新的命题:


根据 Proposition 2,当 t=1 时,随着 s 趋近 1,将趋近于 0。由此,该研究证明了包含奇点时刻的逆过程全过程都符合高斯特性。

奇点时刻的采样

有了逆过程高斯特性的保证,该研究基于逆向采样公式对奇点时刻的采样展开了研究。

首先考虑 t=1 时刻的奇点问题。当 t=1 时,=0,下面的采样公式将出现分母除 0 的情况:


研究团队发现,通过计算极限,该奇点可以转化为可去奇点:


然而,这一极限无法在测试过程中进行计算。为此,该研究提出可以在 t=1 时刻拟合,使用 「x - 预测」,来解决的初始奇点处的采样问题。

接着考虑 t=0 时刻,高斯分布拟合的逆过程将变成方差为 0 的高斯分布,即狄拉克函数: 


其中。这样的奇异性会使得采样过程收敛到正确的数据上。因此,t=0 处的奇点是扩散模型良好的性质,并不需要规避。

此外,该研究还在附录中探讨了 DDIM,SDE,ODE 中的奇点问题。

即插即用的 SingDiffusion 模块
 


奇点处的采样会影响扩散模型生成图像的质量。例如,在输入高或低亮度的提示时,现有方法往往只能生成平均灰度的图像,这被称为平均灰度问题。这个问题源于现有方法忽略了 t=0 时奇点处的采样,而是在 1-ϵ 时刻使用标准高斯分布作为初始分布进行采样。然而,正如上图所示,标准高斯分布与实际的 1-ϵ 时刻的数据分布存在较大的差距。


在这样的差距下,根据 Proposition 3,现有方法等同于在 t=1 时朝着一个均值为 0 的图像进行生成,即平均灰度图像。因此,现有方法难以生成亮度极强或极弱的图像。为了解决这个问题,该研究提出了一个即插即用的 SingDiffusion 方法,通过拟合标准高斯分布与实际数据分布之间的转换来弥补这一差距。

SingDiffuion 的算法如下图所示:



 根据上一节的结论,该研究在在 t=1 时刻使用了 「x - 预测」方法来解决奇点处的采样问题。对于图-文数据对,该方法训练了一个 Unet来拟合。损失函数表示为:


模型收敛后,就可以按照下面的 DDIM 采样公式并使用新得到的模块采样


DDIM 的采样公式确保了生成的符合 1-ε 时刻的数据分布,从而解决了平均灰度问题。在这一步骤之后,就可以使用预训练的模型执行后续的采样步骤,直到生成。值得注意的是,由于该方法仅参与第一步的采样,与后续的采样过程无关,因此 SingDiffusion 可以应用在绝大多数已有的扩散模型中。另外,为了避免无分类器指导操作导致的数据溢出问题,该方法还使用了以下的归一化操作:

 
其中 guidance 表示无分类器指导操作后的结果,neg 表示负面提示下的输出,pos 表示正面提示下的输出,ω 表示指导强度。

实验

首先,该研究在 SD-1.5、SD-2.0-base 和 SD-2.0 三个模型上验证了 SingDiffusion 解决平均灰度问题的能力。该研究选择了四个极端的提示,包括 「纯白 / 黑背景」 和 「单色线条艺术标志在白 / 黑背景上」,作为条件进行生成,并计算生成图像的平均灰度值,如下表所示: 


从表格中可以看出,该研究能够显著地解决平均灰度值问题,生成符合输入文字描述亮度的图像。此外,该研究还可视化了在这四个提示语句下的生成结果,如下图所示:


从图中可以看出,加入该方法后,现有的扩散模型能够生成偏黑或者偏白的图像。

为了进一步研究该方法对于图像质量的提升,该研究在 COCO 数据集上选择了 30,000 个描述进行了测试。首先,该研究展示了在不使用无分类器引导下,模型本身的生成能力,如下表所示:


从表格中可以看出,所提出的方法能够显著降低生成图像的 FID,并提升 CLIP 指标。值得注意的是,在 SD-1.5 模型中,该论文中的方法相比于原模型在 FID 指标上降低了 33%。

进一步地,为了验证所提出方法在无分类器引导下的生成能力,该研究还在下图中展示了在不同引导大小 ω∈[1.5,2,3,4,5,6,7,8] 下 CLIP v.s. FID 的帕累托曲线:


从图中可以看出,在相同的 CLIP 水平下,所提出的方法能够获得更低的 FID 数值,生成更逼真的图像。

此外,该研究还展示了所提出方法在不同 CIVITAI 预训练模型下的泛化能力,如下图所示:


可以看出,该研究所提出的方法仅需进行一次训练,即可轻松地应用到已有的扩散模型中,解决平均灰度问题。


最后,该研究所提出的方法还能够无缝地应用到预训练的 ControlNet 模型上,如下图所示:


从结果中可以看出,该方法能有效解决 ControlNet 的平均灰度问题。


参考文献:
[1] Tero Karras, Miika Aittala, Timo Aila, and Samuli Laine. Elucidating the design space of diffusion-based generative models. Advances in Neural Information Processing Systems (NeurIPS), pages 26565–26577, 2022. 3

首届中国具身智能大会(CEAI 2024)即将于 2024 年 3 月 30 日至 31 日在上海徐汇西岸美高梅酒店举行。

本次大会由中国人工智能学会(CAAI)主办,CAAI 具身智能专委会(筹)、同济大学、中国科学院计算技术研究所、上海交通大学、中国经济信息社上海总部联合承办,全球高校人工智能学术联盟协办,机器之心独家 AI 媒体合作。

盛会将为具身智能领域的学术与产业界搭建一个交流合作的顶级平台,以广泛促进学术分享与交流、产业合作与互动,推动产学研联动发展,提升我国具身智能技术的研究与应用水平。

立即扫码注册,共享科技盛宴!


© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
CVPR 2024 | 浙大提出近似平均方向求解器,快速扩散模型数值采样CVPR 2024 | 基于MoE的通用图像融合模型,添加2.8%参数完成多项任务CVPR 2024 Workshop "非接触健康监测",邀你来投稿!CVPR 2024 | 中科大&微软提出:迈向更统一的上下文视觉理解CVPR 2024 | OmniParser:统一图文解析模型:文字检测识别、视觉信息抽取和表格识别健康投资项目总结Sora之后,OpenAI Lilian Weng亲自撰文教你从头设计视频生成扩散模型CVPR 2024 | 通过细粒度人类反馈对齐数据,提高多模态大模型可信度巧解「数据稀缺」问题!清华开源GPD:用扩散模型生成神经网络参数|ICLR 2024底层视觉大模型!董超团队新作SUPIR:扩散生成先验的图像复原2024 新一批裁员浪潮,你的公司上榜了吗?Sabalenka vs. Zheng: Australian Open 2024 women's finalCVPR 2024 | 和马赛克说拜拜!华为、清华等提出基于认知的万物超分大模型扩散模型微信交流群来了!顶流Mamba和扩散模型微信群!字节发布视觉基础模型ViTamin,多项任务实现SOTA,入选CVPR2024CVPR 2024 | 腾讯提出LORS:低秩残差结构,瘦身模型不掉点!CVPR 2024 中科院自动化所36篇入选!新主干/多模态/3D视觉/自动驾驶等全都有!CVPR 2024 | SAM-6D:分割一切遇见零样本6D位姿估计CVPR 2024 | 港理工联合OPPO提出统一且通用的视频分割大模型出版一本书Stability AI开源上新:3D生成引入视频扩散模型,质量一致性up,4090可玩CVPR 2024 | 闻声识人黑科技!从音频中想象出说话人脸,FaceChain团队出品蚂蚁提出自适应训练框架AntDT,有效解决工业级分布式训练快慢机的利器美坛活动【Poem Reading Tuesday】My Doggy Ate My Essay by Darren SardelCVPR 2024 | 中大哈佛等提出全新训练方法CLoT,探究大模型幽默创新力CVPR 2024 | 零样本6D物体姿态估计框架SAM-6D,向具身智能更进一步《希望》&《遇见》(陕西话版)Niu Niu's A Journey to Overcoming Fear & Forming Connections吕洪来:中共政权垮台后,需要“国际共管”来度过社会转型期生成扩散模型漫谈:信噪比与大图生成(下)精度最高降幅60%!SOTA只是假象?CVPR 2024为你揭示CLIP和LLaVA-Next等模型“骗局”!CVPR 2024 | 通用视觉新突破!UC伯克利提出首个无自然语言的纯视觉大模型【七絕】趕集CVPR 2024 | E2STR:基于多模态上下文学习构建的自进化文本识别模型CVPR 2024 | 面部+肢体动画,一个框架搞定从音频生成数字人表情与动作CVPR 2024|文本或图像提示精准编辑 3D 场景,美图&信工所&北航&中大联合提出 3D 编辑方法 CustomNeRFCVPR 2024高分论文:全新生成式编辑框架GenN2N,统一NeRF转换任务ICLR 2024 | 阐明扩散模型中的曝光偏差问题,一行代码大幅提升生成质量冬雨周末
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。