Redian新闻
>
几行代码稳定UNet ! 中山大学等提出ScaleLong扩散模型:从质疑Scaling到成为Scaling

几行代码稳定UNet ! 中山大学等提出ScaleLong扩散模型:从质疑Scaling到成为Scaling

公众号新闻



  新智元报道  

编辑:LRS 好困
【新智元导读】本文提出了扩散模型中UNet的long skip connection的scaling操作可以有助于模型稳定训练的分析,目前已被NeurIPS 2023录用。同时,该分析还可以解释扩散模型中常用但未知原理的1/√2 scaling操作能加速训练的现象。


在标准的UNet结构中,long skip connection上的scaling系数一般为1。


然而,在一些著名的扩散模型工作中,比如Imagen, Score-based generative model,以及SR3等等,它们都设置了,并发现这样的设置可以有效加速扩散模型的训练。





质疑Scaling


然而,Imagen等模型对skip connection的Scaling操作在原论文中并没有具体的分析,只是说这样设置有助于加速扩散模型的训练。


首先,这种经验上的展示,让我们并搞不清楚到底这种设置发挥了什么作用?


另外,我们也不清楚是否只能设置,还是说可以使用其他的常数?


不同位置的skip connection的「地位」一样吗,为什么使用一样的常数?


对此,作者有非常多的问号……



理解Scaling


一般来说,和ResNet以及Transformer结构相比,UNet在实际使用中「深度」并不深,不太容易出现其他「深」神经网络结构常见的梯度消失等优化问题。


另外,由于UNet结构的特殊性,浅层的特征通过long skip connection与深层的位置相连接,从而进一步避免了梯度消失等问题。


那么反过来想,这样的结构如果稍不注意,会不会导致梯度过猛、参数(特征)由于更新导致震荡的问题?



通过对扩散模型任务在训练过程中特征和参数的可视化,可以发现,确实存在不稳定现象。


参数(特征)的不稳定,影响了梯度,接着又反过来影响参数更新。最终这个过程对性能有较大的不良干扰的风险。因此需要想办法去控制这种不稳定性。


进一步的,对于扩散模型。UNet的输入是一个带噪图像,如果要求模型能从中准确预测出加入的噪声,这需要模型对输入有很强的抵御额外扰动的鲁棒性。


论文:https://arxiv.org/abs/2310.13545

代码:https://github.com/sail-sg/ScaleLong


研究人员发现上述这些问题,可以在Long skip connection上进行Scaling来进行统一地缓解。



从定理3.1来看,中间层特征的震荡范围(上下界的宽度)正相关于scaling系数的平方和。适当的scaling系数有助于缓解特征不稳定。


不过需要注意的是,如果直接让scaling系数设置为0,确实最佳地缓解了震荡。(手动狗头)


但是UNet退化为无skip的情况的话,不稳定问题是解决了,但是表征能力也没了。这是模型稳定性和表征能力的trade-off。



类似地,从参数梯度的角度。定理3.3也揭示了scaling系数对梯度量级的控制。



进一步地,定理3.4还揭示了long skip connection上的scaling还可以影响模型对输入扰动的鲁棒上界,提升扩散模型对输入扰动的稳定性。


成为Scaling


通过上述的分析,我们清楚了Long skip connection上进行scaling对稳定模型训练的重要性,也适用于上述的分析。


接下来,我们将分析怎么样的scaling可以有更好的性能,毕竟上述分析只能说明scaling有好处,但不能确定怎么样的scaling最好或者较好。


一种简单的方式是为long skip connection引入可学习的模块来自适应地调整scaling,这种方法称为Learnable Scaling (LS) Method。我们采用类似SENet的结构,即如下所示(此处考虑的是代码整理得非常好的U-ViT结构,赞!)



从本文的结果来看,LS确实可以有效地稳定扩散模型的训练!进一步地,我们尝试可视化LS中学习到的系数。


如下图所示,我们会发现这些系数呈现出一种指数下降的趋势(注意这里第一个long skip connection是指连接UNet首尾两端的connection),且第一个系数几乎接近于1,这个现象也很amazing!


  


基于这一系列观察(更多的细节请查阅论文),我们进一步提出了Constant Scaling (CS) Method,即无需可学习参数的:



CS策略和最初的使用的scaling操作一样无需额外参数,从而几乎没有太多的额外计算消耗。


虽然CS在大多数时候没有LS在稳定训练上表现好,不过对于已有的策略来说,还是值得一试。


上述CS和LS的实现均非常简洁,仅仅需要若干行代码即可。针对各(hua)式(li)各(hu)样(shao)的UNet结构可能需要对齐一下特征维度(手动狗头+1



最近,一些后续工作,比如FreeU、SCEdit等工作也揭示了skip connection上scaling的重要性,欢迎大家试用和推广。
参考资料:
https://arxiv.org/abs/2310.13545



微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
今日arXiv最热NLP大模型论文:微软提出SliceGPT,删除25%模型参数,性能几乎无损沒有實際控制人的2024AI正在使全球代码质量下降!1.53亿行代码深度分析报告出炉专治大模型说胡话,精确率100%!华科等提出首个「故障token」检测/分类方法北航等提出TTP:基于大模型的遥感图像变化检测新网络,性能表现SOTA!只抵制洋节日?马列主义的洋货更该抵制韩国 Helen Woo:从学霸到成功内衣品牌创业者的传奇之旅3D版Sora来了?UMass、MIT等提出3D世界模型,具身智能机器人实现新里程碑文末送书 | 中山大学HCP实验室专著《多模态大模型》重磅发布WWW 2024 | 阿里等提出GraphTranslator,将图模型对齐大语言模型ICLR 2024 | 阐明扩散模型中的曝光偏差问题,一行代码大幅提升生成质量小模型性能直逼GPT-4?北航等提出基于强弱模型协同的ICL增强新范式​AAAI 2024 | 杭电等提出MINDS,基于序列超图和对抗学习增强多尺度扩散预测全球代码质量骤降,罪魁祸首竟是AI!1.53亿行代码深度分析报告出炉双林奇案录第三部之天使刺客: 第二节扩散模型图像理解力刷新SOTA!字节联合复旦团队提出全新「元提示」策略CVPR 2024 | 和马赛克说拜拜!华为、清华等提出基于认知的万物超分大模型张寿臣的单口相声《小神仙》Sora之后,OpenAI Lilian Weng亲自撰文教你从头设计视频生成扩散模型分析了1.5亿行代码发现:AI编程助手降低代码质量视频场景图生成任务新SOTA!中山大学提出全新时空知识嵌入框架,登顶刊TIP'24几何纹理重建新SOTA!浙大提出SIFU:单图即可重建高质量3D人体模型国粹之一 打牌北大等提出MoE-LLaVA:将多模态大模型稀疏化CVPR 2024 | 浙大提出近似平均方向求解器,快速扩散模型数值采样大模型RAG问答技术架构及核心模块回顾:从Embedding、prompt-embedding到Reranker抛弃编码器-解码器架构,用扩散模型做边缘检测效果更好,国防科大提出DiffusionEdge热议!中山大学宋尔卫/苏士成团队Nature最新研究成果,被质疑!荐书丨中山大学 HCP 实验室专著《多模态大模型》重磅发布ICLR 2024 清华/新国大/澳门大学提出一模通吃的多粒度图文组合检索MUG:通过不确定性建模,两行代码完成部署陌上花开1190 一起成为更好的我们 | 中山大学,积极独立,网红餐吧合伙人CVPR 2024 | 中大哈佛等提出全新训练方法CLoT,探究大模型幽默创新力分析了 1.5 亿行代码发现:AI 编程助手降低代码质量Levi's起诉Brunello Cucinelli侵犯“矩形口袋标签”商标权扩散模型图像理解力刷新SOTA!字节复旦团队提出全新「元提示」策略
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。