Redian新闻
>
首个超大规模GAN模型!生成速度比Diffusion快20+倍,0.13秒出图,最高支持1600万像素

首个超大规模GAN模型!生成速度比Diffusion快20+倍,0.13秒出图,最高支持1600万像素

公众号新闻



  新智元报道  

编辑:LRS
【新智元导读】GAN模型也有变大的潜力!


AIGC爆火的背后,从技术的角度来看,是图像生成模型的架构发生了巨大的变化。


随着OpenAI发布DALL-E 2,自回归和扩散模型一夜之间成为大规模生成模型的新标准,而在此之前,生成对抗网络(GAN)一直都是主流选择,并衍生出StyleGAN等技术。



从GAN切换到扩散模型的架构转变也引出了一个问题:能否通过扩大GAN模型的规模,比如说在 LAION 这样的大型数据集中进一步提升性能吗?


最近,针对增加StyleGAN架构容量会导致不稳定的问题,来自浦项科技大学(韩国)、卡内基梅隆大学和Adobe研究院的研究人员提出了一种全新的生成对抗网络架构GigaGAN,打破了模型的规模限制,展示了 GAN 仍然可以胜任文本到图像合成模型。


论文链接:https://arxiv.org/abs/2303.05511

项目链接:https://mingukkang.github.io/GigaGAN/


GigaGAN有三大优势


1. 它在推理时速度更快,相比同量级参数的Stable Diffusion-v1.5,在512分辨率的生成速度从2.9秒缩短到0.13秒。



2. 可以合成高分辨率的图像,例如,在3.66秒内合成1600万像素的图像。



3. 支持各种潜空间编辑应用程序,如潜插值、样式混合和向量算术操作等。



GAN到极限了吗?


最近发布的一系列模型,如DALL-E 2、Imagen、Parti和Stable Diffusion,开创了图像生成的新时代,在图像质量和模型灵活性方面达到了前所未有的水平。

现在占主导地位的范式「扩散模型」和「自回归模型」,都依赖于迭代推理这把双刃剑,因为迭代方法能够以简单的目标进行稳定的训练,但在推理过程中会产生更高的计算成本。


与此形成对比的是生成对抗网络(GAN),只需要一次forward pass即可生成图像,因此本质上是更高效的。


虽然GAN模型主导了生成式建模的「前一个时代」,但由于训练过程中的不稳定性,对GAN进行扩展需要仔细调整网络结构和训练考虑,因此GANs虽然在为单个或多个对象类别建模方面表现出色,但扩展到复杂的数据集上(更不用说开放世界物体生成了),仍然具有挑战性。


所以目前超大型的模型、数据和计算资源都主要集中在扩散和自回归模型上。

在这项工作中,研究人员主要解决以下问题:


GAN能否继续扩大规模并有可能从这些资源中受益?或者说GAN已经到达极限了?是什么阻碍了GAN的进一步扩展?能否克服这些障碍?


稳定训练GAN


研究人员首先用StyleGAN2进行实验,观察到简单地扩展骨干网会导致不稳定的训练,在确定了几个关键问题后,提出了在增加模型容量的同时稳定训练的技术。


首先,通过保留一个滤波器库(a bank of filters),并采取一个特定样本的线性组合来有效地扩展生成器的容量。


改编了几个在扩散模型上下文中常用的技术,并确认它们可以为GANs带来了类似的性能提升,例如将自注意力机制(仅图像)和交叉注意力(图像-文本)与卷积层交织在一起可以提高性能。


此外,研究人员重新引入了多尺度训练(multi-scaletraining),找到了一个新的方案可以改善图像-文本对齐和生成输出的低频细节。


多尺度训练可以让基于GAN的生成器更有效地使用低分辨率块中的参数,从而具有更好的图像-文本对齐和图像质量。


生成器



GigaGAN的生成器由文本编码分支(text encoding branch)、样式映射网络(style mapping network)、多尺度综合网络(multi-scale synthesis network)组成,并辅以稳定注意力(stable attention)和自适应核选择(adaptive kernel selection)。


在文本编码分支中,首先使用一个预先训练好的 CLIP 模型和一个学习的注意层 T 来提取文本嵌入,然后将嵌入过程传递给样式映射网络 M,生成与 StyleGAN 类似的样式向量 w



合成网络采用样式编码作为modulation,以文本嵌入作为注意力来生成image pyramid,在此基础上,引入样本自适应核选择算法,实现了基于输入文本条件的卷积核自适应选择。



判别器



与生成器类似,GigaGAN的判别器由两个分支组成,分别用于处理图像和文本条件。


文本分支处理类似于生成器的文本分支;图像分支接收一个image pyramid作为输入并对每个图像尺度进行独立的预测。



公式中引入了多个额外的损失函数以促进快速收敛。


实验结果


对大规模文本-图像合成任务进行系统的、受控的评估是困难的,因为大多数现有的模型并不公开可用,即使训练代码可用,从头开始训练一个新模型的成本也会过高。


研究人员选择在实验中与Imagen、Latent Diffusion Models(LDM)、Stable Diffusion和Parti进行对比,同时承认在训练数据集、迭代次数、批量大小和模型大小方面存在相当大的差异。


对于定量评价指标,主要使用Frechet Inception Distance(FID)来衡量输出分布的真实性,并使用CLIP分数来评价图像-文本对齐。


文中进行了五个不同的实验:


1. 通过逐步纳入每个技术组件来展示提出方法的有效性;



2. 文本-图像合成结果表明,GigaGAN表现出与稳定扩散(SD-v1.5)相当的FID,同时生成的结果比扩散或自回归模型快数百倍;



3. 将GigaGAN与基于蒸馏的扩散模型进行对比,显示GigaGAN可以比基于蒸馏的扩散模型更快地合成更高质量的图像;



4. 验证了GigaGAN的上采样器在有条件和无条件的超分辨率任务中比其他上采样器的优势;



5. 结果表明大规模GANs仍然享有GANs的连续和分解潜伏空间的操作,实现了新的图像编辑模式。



经过调参,研究人员在大规模的数据集,如LAION2B-en上实现了稳定和可扩展的十亿参数GAN(GigaGAN)的训练。



并且该方法采用了多阶段的方法,首先在64×64下生成,然后上采样到512×512,这两个网络是模块化的,而且足够强大,能够以即插即用的方式使用。


结果表明,尽管在训练时从未见过扩散模型的图像,但基于文本条件的GAN上采样网络可以作为基础扩散模型(如DALL-E 2)的高效、高质量的上采样器。



这些成果加在一起,使得GigaGAN远远超过了以前的GAN模型,比StyleGAN2大36倍,比StyleGAN-XL和XMC-GAN大6倍。



虽然GiGAN的10亿参数量仍然低于最近发布的最大合成模型,如Imagen(3B)、DALL-E 2(5.5B)和Parti(20B),但目前还没有观察到关于模型大小的质量饱和度。


GigaGAN在COCO2014数据集上实现了9.09的zero-shot FID,低于DALL-E 2、Parti-750M和Stable Diffusion的FID


应用场景


提示插值(Prompt interpolation)


GigaGAN可以在提示之间平滑地插值,下图中的四个角是由同一潜码生成,但带有不同的文本提示。



解耦提示混合(Disentangled prompt mixing)


GigaGAN 保留了一个分离的潜空间,使得能够将一个样本的粗样式与另一个样本的精细样式结合起来,并且GigaGAN 可以通过文本提示直接控制样式。



粗到精风格交换(Coarse-to-fine sytle swapping)


基于 GAN 的模型架构保留了一个分离的潜在空间,使得能够将一个样本的粗样式与另一个样本的精样式混合在一起。



参考资料:
https://mingukkang.github.io/GigaGAN/





微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
安卓手机「跑」Stable Diffusion创新纪录,15秒内出图图像生成终结扩散模型,OpenAI「一致性模型」加冕!GAN的速度一步生图,高达18FPS谷歌优化扩散模型!在三星手机上运行Stable Diffusion,12秒内出图!部署国产ChatGPT仅需6G显存!ChatYuan模型开放下载:业内首个功能型对话开源中文大模型最好看的警匪片《黑雨》英伟达超快StyleGAN回归,比Stable Diffusion快30多倍,网友:GAN好像只剩下快了CVPR 2023 | GAN的反击!朱俊彦新作GigaGAN,出图速度秒杀Stable Diffusion!Stable Diffusion能生成视频了!动画版上线!支持文本图像视频多种输入方式论文变播客:如何用LangChain快速生成知识类播客?| AIGC应用实操系列第二期谷歌模型支持手机上跑Stable Diffusion;普华永道砸10亿美元投资AIGC;天翼云将推出大模型丨AIGC大事日报五秒AI绘画出图,全球最快的Stable Diffusion终于来了! [ 第364期 ]比Diffusion更快!OpenAI新图像生成模型开源了!清华校友宋飏一作隐身战机不香吗,中国空军还在列装歼16,装备速度比歼20还要快?iQOO Z7 手机再预热:采用 6400 万像素加持 OIS 光学防抖速度惊人!手机跑Stable Diffusion,12秒出图,谷歌加速扩散模型破记录CVPR 2023 | GAN的反击!朱俊彦新作GigaGAN,出图速度秒杀Stable Diffusion谷歌下场优化扩散模型,三星手机运行Stable Diffusion,12秒内出图How does the Chinese communist party work?新发现!Nature:人类核糖体解码mRNA速度比细菌慢10倍,但更准确!让PyTorch创始人直呼「Amazing」的视频「脑补」,动态场景NeRF合成速度提升百倍GAN的反击:朱俊彦CVPR新作GigaGAN,出图速度秒杀Stable DiffusionICLR 2023 | 无惧大规模GNN:中科大提出首个可证明收敛的子图采样方法帮助老海归进步小海龟们最爱吃西餐清华朱军团队开源UniDiffuser:首个基于Transformer的多模态扩散大模型Stable Diffusion团队放大招!新绘画模型直出AI海报,实现像素级图像生成清华朱军团队开源UniDiffuser:首个基于Transformer的多模态扩散大模型!文图互生、改写全拿下!无惧大规模GNN,用子图也一样!中科大提出首个可证明收敛的子图采样方法 | ICLR 2023 Spotlight这10个春晚小品,经典看不厌!精通Stable Diffusion画图,理解LoRA、Dreambooth、Hypernetworks四大模型差异Stability AI连扔两个王炸!首个开源RLHF模型登基,DeepFloyd IF像素级出图OpenAI新生成模型开源炸场!比Diffusion更快更强,清华校友宋飏一作全球首发,国产开源「文本-视频生成」模型!免费在线体验,一键实现视频生成自由【体育内参】成都发布全国首个超大城市户外休闲运动专项规划中国底层,正出现一个超大规模的赌场?
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。