Redian新闻
>
ICML 2024 | 即插即用!无需训练!基于球面高斯约束引导的条件扩散模型

ICML 2024 | 即插即用!无需训练!基于球面高斯约束引导的条件扩散模型

公众号新闻

©PaperWeekly 原创 · 作者 | 杨凌霄

单位 | 上海科技大学信息学院



论文标题:
Guidance with Spherical Gaussian Constraint for Conditional Diffusion

论文作者:

杨凌霄、丁枢桐、蔡逸凡、虞晶怡、汪婧雅、石野

通讯作者:

石野

论文链接:

https://arxiv.org/abs/2402.03201

代码链接:

https://github.com/LingxiaoYang2023/DSG2024



摘要

最近的 Guidance 方法试图通过利用预训练的扩散模型实现损失函数引导的、无需训练的条件生成。虽然这些方法取得了一定的成功,但它们通常会损失生成样本的质量,并且只能使用较小的 Guidance 步长,从而导致较长的采样过程


在本文中,我们揭示了导致这一现象的原因,即采样过程中的流形偏离(Manifold Deviation)。我们通过建立引导过程中估计误差的下界,从理论上证明了流形偏离的存在。


为了解决这个问题,我们提出了基于球形高斯约束的 Guidance 方法(DSG),通过解决一个优化问题将 Guidance 步长约束在中间数据流形内,使得更大的引导步长可以被使用。


此外,我们提出了该 DSG 的闭式解(Closed-Form Solution), 仅用几行代码,就能够使得 DSG 可以无缝 地插入(Plug-and-Play)到现有的无需训练的条件扩散方法,在几乎不产生额外的计算开销的同时大幅改 善了模型性能。我们在各个条件生成任务(Inpainting, Super Resolution, Gaussian Deblurring, Text- Segmentation Guidance, Style Guidance, Text-Style Guidance, and FaceID Guidance)中验证了 DSG 的有效性。



背景:无需训练的条件扩散模型

Classifier guidance 首先提出使用预训练的扩散模型进行条件生成。它利用贝叶斯公式 ,通过引入额外的似然项 来实现条件生成:

目前无需训练的方法,将 time-dependent classifier 替换成某个定义在 上的可微损失函数 , 并利用 Tweedie’s formula 求解额外的似然项:

这里 表示加噪 t 步的 data, 表示引导步长。因此,总体的采样过程可以被写成

损失函数引导过程中的流形偏离(Manifold Deviation)

尽管先前的工作由于其灵活的特性在各种条件生成任务中取得了巨大成功,但它们会牺牲生成样本的质量。在本文中,我们提出这种现象产生的原因是线性流形假设(Linear Manifold Assumption)和 Jensen Gap 导致的流形偏离:


1. 线性流形假设:线性流形假设是一个相当强的假设,因此在实践中通常会引入误差。


2. Jensen Gap:在实际情况下,
的分布是未知的,将其简单地用 Tweedie’s formula 的估计均值替代会引入 Jensen Gap:

本文指出,即使 DPS 提供了 Jensen Gap 的上界,它仍然具有下界,也会引入估计误差:



基于球面高斯约束引导的条件扩散模型(DSG)

既然无论 Jensen Gap 还是线性流形假设都会不可避免地引入估计误差,那么为什么不在已经无条件的中间数据流形(Intermediate Data Manifold)中,找到那个最接近条件采样的点呢?


因此,我们提出了 DSG(Diffusion with Spherical Gaussian constraint);一种在无条件中间流形的高 置信区间内进行 Guidance 的优化方法:

这里 表示高斯分布的概率为()的置信区间。在这个优化问题中目标函数倾向于让采样过程在 梯度下降方向进行,约束则是将采样约束在高斯分布的高置信区间。


然而,当高置信区间包含 n 维空间中时,优化问题就变得具有挑战性。幸运的是,高维各向同性高斯分布的高置信区间集中在一个超球上,我们可以通过用这个超球近似它来简化约束,称为球面高斯约束(Spherical Gaussian Constraint):

这里

表示 n 维高斯分布近似的超球。通过这种近似方法,我们能够得到优化问题的闭式解:

这个闭式解的求得能够表明,DSG 可以无缝插入目前的无需训练的条件扩散模型,如 DPS、Freedom、UGD,而不造成额外的计算复杂度。并且,只需要修改几行代码就能够产生更好的样本和达到更快的推理速度。


另外,从另一个角度看,DSG 也可以看成在预测均值 上进行梯度下降。而且,由于 正相关,DSG 可以看作是自适应的梯度下降方法,在一开始下降步长大,在最后下降步长小。在实验中,我们发现 DSG 最大的步长能够达到 DPS 的 400 倍,因此能够在更小的 DDIM steps 下相比于 DPS 更加鲁棒。

此外,我们发现 DSG 虽然增强了对齐能力和真实性,但是在多样性方面有所损失。因此,我们对原始采样方向和梯度下降方向的进行加权,就像 Classifier-free Guidance 那样:

这里 表示无条件采样方向, 表示最速梯度下降方向。另外, 会被缩放以满足球面高斯约束。

算法流程图如下:




实验结果

我们验证了 DSG 在各个任务上的性能都能够显著地超过 baseline。


Linear Inverse Problems in FFHQ with DDIM steps=1000
Linear Inverse Problems in FFHQ with DDIM steps=100,50,20

可以看到,DPS+DSG 在 DDIM steps=1000,100,50,20 都远超 DPS,并且在 DDIM steps 较小的时候能够观察到与 DPS 更大的性能差距。这种现象可归因于 DPS 的局限性,即为了不远离流形使用的小步长。因此,随着 guidance 步数的减少,测量结果的对齐变得越来越具有挑战性。


相比之下,我们的模型在性能上只有轻微的下降。这是因为 DSG 允许更大的步长,同时仍然保留在中间流形上。因此,即使减少了去噪步骤,我们仍然可以在生成真实样本的同时实现与测量结果的精确对齐,如图 6 所示。


FaceID Guidance in Celeba-HQ

Text-Segmentation Guidance

Style Guidance

Text-Style Guidance

Other Tasks


由于篇幅限制,更多实验结果、实验设置请查看原文以获取更多细节。



总结

在本文中,我们揭示了无需训练的条件扩散模型中的一个关键问题:在使用基于损失函数的引导时,在采样过程中会出现流形偏移现象。为解决这一问题,我们提出了一种基于球面高斯约束引导的条件扩散(DSG)方法,灵感来源于高维高斯分布中的集中现象。DSG 通过优化有效地限制引导步骤在中间数据流形内,从而减轻流形偏移问题,并能够使用更大的引导步长。


此外,我们为基于球形高斯约束的 DSG 去噪过程提供了一个封闭形式的解决方案。(CDM)。将 DSG 整合到这些 CDM 中,仅涉及修改几行代码,几乎不增加额外的计算成本,但却显著提高了性能。我们已将 DSG 整合到几个最新的 CDM 中,用于各种条件生成任务。实验结果验证了 DSG 在样本质量和时间效率方面的优越性和适应性。



更多阅读





#投 稿 通 道#

 让你的文字被更多人看到 



如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。


总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 


PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。


📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算


📬 投稿通道:

• 投稿邮箱:[email protected] 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿


△长按添加PaperWeekly小编



🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧


·
·
·

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
CVPR 2024 | 浙大提出近似平均方向求解器,快速扩散模型数值采样文学城的排名超越扩散模型!度小满、中科大等联合提出全新自回归通用文生图模型中篇小说 枫叶红透 第六节Mamba遇见扩散模型!DiM:无需微调,高分辨图像生成更高效!长篇奇幻浪漫小说《双灵星》第十九章:牵牛花SMART研究女性结局发布,在小瓣环主动脉瓣狭窄患者中,自膨式瓣膜不劣于球囊扩张瓣膜丨EuroPCR2024CVPR 2024 | MotionEditor:首个面向动作编辑的视频扩散模型ICML 2024 | Transformer究竟如何推理?基于样例还是基于规则云天励飞余晓填:剖解大模型技术演进与挑战,算法芯片化突破大模型落地“三角约束”丨GenAICon 2024视觉prompt工程!无需微调、无需任何模型修改,让一个通用模型可以执行多种指定任务即插即用!上交提出Long-CLIP:解锁CLIP的长文本功能ICML 2024 | 大语言模型预训练新前沿:最佳适配打包重塑文档处理标准CVPR 2024|生成不了光线极强的图片?微信视觉团队有效解决扩散模型奇点问题核心代码仅三行!即插即用的视觉语言连接器,一键提升多模态大模型65个即插即用涨点模块! 5个最新Mamba模块ACL2024主会:无需训练的大模型推荐系统!愚人节(4/1/2024)Best CD Rates Of April 2024: Up To 5.42%ECCV 2024 | ZigMa:Mamba遇见扩散模型!强强联合!CLIP当RNN用入选CVPR:无需训练即可分割无数概念|牛津大学&谷歌研究院ICLR 2024 | 阐明扩散模型中的曝光偏差问题,一行代码大幅提升生成质量CVPR 2024|让图像扩散模型生成高质量360度场景,只需要一个语言模型洛杉矶东区猫狗领养活动 4/28/2024 周日下午3IVUS-DCB研究:DCB治疗腘动脉疾病时,IVUS引导的12个月时初级通畅率优于血管造影引导丨ACC重磅研究狗引儿【长篇】(七十七)ACL 2024 | 大语言模型的安全对齐会适得其反?无需训练便能逆转安全对齐CVPR 2024 | CLIP当成RNN!无需训练即可分割无数概念|牛津&谷歌新作CaRICLR上新 | 强化学习、扩散模型、多模态语言模型,你想了解的前沿方向进展全都有忐忑不安nervous anxious即插即用,快速适配!港大FlashST:简单通用的智慧交通时空预测模型 | ICML 2024ICML 2024|Transformer究竟如何推理?基于样例还是基于规则ICML 2024 | 大语言模型预训练新前沿:「最佳适配打包」重塑文档处理标准ICML 2024 | 通过随机微分方程统一贝叶斯流网络和扩散模型搬家清囤的Lululemon, Aritzia Randy & Murphy, Sophie Webster蝴蝶鞋及其他告别3D高斯Splatting算法,带神经补偿的频谱剪枝高斯场SUNDAE开源了ICML 2024 | 川大提出外部引导的深度聚类新范式,大幅提升CLIP图像聚类性能快手开源 I2V-Adapter,即插即用、轻量级模块让静态图像秒变动态视频有不烦车子的自动停启功能的吗?2024 BMW X5​即插即用!美团提出整数量化系数方案:大模型细粒度量化的免费午餐
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。