Redian新闻
>
狙击扩散模型!谷歌&伯克利提出IGN:单步生成逼真图像!

狙击扩散模型!谷歌&伯克利提出IGN:单步生成逼真图像!

公众号新闻

点击下方卡片,关注“CVer”公众号

AI/CV重磅干货,第一时间送达

点击进入—>【扩散模型和GAN】微信交流群

在CVer微信公众号后台回复:IGN,可以下载本论文pdf、代码,学起来!

转载自:新智元 | 编辑:桃子

【导读】生成式AI模型的新范式要来了。UC伯克利谷歌提出幂等生成网络(IGN),只需单步即可生图。

已经红遍半边天的扩散模型,将被淘汰了?

当前,生成式AI模型,比如GAN、扩散模型或一致性模型,通过将输入映射到对应目标数据分布的输出,来生成图像。

通常情况下,这种模型需要学习很多真实的图片,然后才能尽量保证生成图片的真实特征。

最近,来自UC伯克利和谷歌的研究人员提出了一种全新生成模型——幂等生成网络(IGN)。

论文地址:https://arxiv.org/abs/2311.01462

IGNs可以从各种各样的输入,比如随机噪声、简单的图形等,通过单步生成逼真的图像,并且不需要多步迭代。

这一模型旨在成为一个「全局映射器」(global projector),可以把任何输入数据映射到目标数据分布。

简言之,通用图像生成模型未来一定是这样的。

有趣的是,《宋飞正传》中一个高效的场景竟成为作者的灵感来源。

这个场景很好地总结了「幂等运算符」(idempotent operator)这一概念,是指在运算过程中,对同一个输入重复进行运算,得到的结果总是一样的。

正如Jerry Seinfeld幽默地指出的那样,一些现实生活中的行为也可以被认为是幂等的。

幂等生成网络


IGN与GAN、扩散模型有两点重要的不同之处:

- 与GAN不同的是,IGN无需单独的生成器和判别器,它是一个「自对抗」的模型,同时完成生成和判别。

- 与执行增量步骤的扩散模型不同,IGN尝试在单个步中将输入映射到数据分布。

那么,幂等生成模型(IGN)怎么来的?

它被训练为从源分布给定输入样本的目标分布,生成样本。

给定示例数据集,每个示例均取自然后,研究人员训练模型映射到

假设分布位于同一空间,即它们的实例具有相同的维度。这允许将应用于两种类型的实例

如图展示了IGN背后的基本思想:真实示例 (x) 对于模型 f 是不变的。其他输入 (z) 被映射到f通过优化映射到自身的实例流上。

IGN训练例程PyTorch代码的一部分示例。

实验结果


得到IGN后,效果如何呢?

作者承认,现阶段,IGN的生成结果无法与最先进的模型相竞争。

在实验中,使用的较小的模型和较低分辨率的数据集,并在探索中主要关注简化方法。

当然了,基础生成建模技术,如GAN、扩散模型,也是花了相当长的时间才达到成熟、规模化的性能。

实验设置

研究人员在MNIST(灰度手写数字数据集)和 CelebA(人脸图像数据集)上评估IGN,分别使用28×28和64×64的图像分辨率。

作者采用了简单的自动编码器架构,其中编码器是来自DCGAN的简单五层鉴别器主干,解码器是生成器。训练和网络超参数如表1所示。

生成结果

图4显示了应用模型一次和连续两次后两个数据集的定性结果。

如图所示,应用IGN 一次 (f (z)) 会产生相干生成结果。然而,可能会出现伪影,例如MNIST数字中的孔洞,或者面部图像中头顶和头发的扭曲像素。

再次应用 f (f (f (z))) 可以纠正这些问题,填充孔洞,或减少面部噪声斑块周围的总变化。

图7显示了附加结果以及应用f三次的结果。

比较表明,当图像接近学习流形时,再次应用f会导致最小的变化,因为图像被认为是分布的。

潜在空间操纵

作者通过执行操作证明IGN具有一致的潜在空间,与GAN所示的类似,图6显示了潜在空间算法。

分布外映射

作者还验证通过将来自各种分布的图像输入到模型中以生成其等效的「自然图像」,来验证IGN「全局映射」的潜力。

研究人员通过对噪声图像x+n 进行去噪、对灰度图像进行着色,以及将草图转换为图5中的真实图像来证明这一点。

原始图像x,这些逆任务是不适定的。IGN能够创建符合原始图像结构的自然映射。

如图所示,连续应用f可以提高图像质量(例如,它消除了投影草图中的黑暗和烟雾伪影)。

谷歌下一步?


通过以上结果可以看出,IGN在推理方面更加有效,在训练后只需单步即可生成结果。

它们还可以输出更一致的结果,这可能推广到更多的应用中,比如医学图像修复。

论文作者表示:

我们认为这项工作是迈向模型的第一步,该模型学习将任意输入映射到目标分布,这是生成建模的新范式。

接下来,研究团队计划用更多的数据来扩大IGN的规模,希望挖掘新的生成式AI模型的全部潜力。

最新研究的代码,未来将在GitHub上公开。

参考资料:
https://assafshocher.github.io/IGN/
https://the-decoder.com/inspired-by-seinfeld-google-unveils-new-ai-model-for-image-generation/

在CVer微信公众号后台回复:IGN,可以下载本论文pdf、代码,学起来!

CVPR / ICCV 2023论文和代码下载

后台回复:CVPR2023,即可下载CVPR 2023论文和代码开源的论文合集

后台回复:ICCV2023,即可下载ICCV 2023论文和代码开源的论文合集

扩散模型和GAN交流群成立


扫描下方二维码,或者添加微信:CVer444,即可添加CVer小助手微信,便可申请加入CVer-扩散模型或者GAN微信交流群。另外其他垂直方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch、TensorFlow和Transformer、NeRF等。


一定要备注:研究方向+地点+学校/公司+昵称(如扩散模型或者GAN+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群

▲扫码或加微信号: CVer444,进交流群


CVer计算机视觉(知识星球)来了!想要了解最新最快最好的CV/DL/AI论文速递、优质实战项目、AI行业前沿、从入门到精通学习教程等资料,欢迎扫描下方二维码,加入CVer计算机视觉(知识星球),已汇集近万人!


扫码加入星球学习


▲点击上方卡片,关注CVer公众号

整理不易,请点赞和在看

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
NeurIPS 2023 | SlotDiffusion: 基于Slot-Attention和扩散模型的全新生成模型苹果“套娃”式扩散模型,训练步数减少七成!一拖一拽,玫瑰复活了!谷歌提出生成图像动力学,从此万物皆有灵NeurIPS 2023 Spotlight | 半监督与扩散模型结合,实现少标签下可控生成语言模型战胜扩散模型!谷歌提出MAGVIT-v2:视频和图像生成上实现双SOTA!笑谈邂逅(44)熊总是一位性情中人画你所想!北航港大提出DiffSketcher:基于扩散模型的文本驱动矢量化手绘草图合成终结扩散模型,IGN单步生成逼真图像!UC伯克利谷歌革新LLM,美剧成灵感来源文生3D模型大突破!MVDream重磅来袭,一句话生成超逼真三维模型【没听过的邓歌】之十二《追梦》& 邓丽君台北故居寻访之路 by 唐歌特价奶茶&晚餐在图像、视频生成上,语言模型首次击败扩散模型,tokenizer是关键超越GPT-4!谷歌DeepMind重磅发布Gemini,史上最强最通用大模型!耶鲁&谷歌提出HyperAttention:近线性时间的长上下文注意力热贴把我老家拍的那么丑,必须来几张漂亮的&简易攻略Mrs. Lincoln's dressmaker & Miss Eliza’s English kitchen武大&港大提出FreeReg:预训练扩散大模型取得点云-图像配准SoTA!GPT-4+物理引擎加持扩散模型,生成视频逼真、连贯、合理UC伯克利等发布多模态基础模型CoDi-2;谷歌DeepMind利用AI工具发现200万种新材料丨AIGC日报NeurIPS 2023 | MSRA、清华、复旦等联合提出AR-Diffusion:基于自回归扩散的文本生成ICLR 2024论文审稿结果出炉!7000+高产论文创新纪录,扩散模型占比最高单GPU运行数千大模型!UC伯克利提出全新微调方法S-LoRA攻克图像「文本生成」难题,碾压同级扩散模型!两代TextDiffuser架构深度解析【回国记录】一次特别的遇见· 花妖计算机视觉迎来GPT时刻!UC伯克利三巨头祭出首个纯CV大模型!大语言模型击败扩散模型!视频图像生成双SOTA,谷歌CMU最新研究,一作北大校友生成的分子几乎 100% 有效,用于逆向分子设计的引导扩散模型步韵遍野君《一身秋》早茶&免费咖啡生成扩散模型漫谈:中值定理加速ODE采样简单有效!Direct Inversion:三行代码提升基于扩散的图像编辑效果谷歌新作UFOGen:通过扩散GAN实现大规模文本到图像生成DALL·E 3内部实测效果惊人!Karpathy生成逼真灵动「美国小姐」,50个物体一图全包顺着网线爬过来成真了,Audio2Photoreal通过对话就能生成逼真表情与动作NeurIPS 2023 | 扩散模型再发力!微软提出TextDiffuser:图像生成的文字部分也能搞定!AIGC时代的视频扩散模型,复旦等团队发布领域首篇综述聊聊美国汽车工会(UAW)罢工手机上0.2秒出图、当前速度之最,谷歌打造超快扩散模型MobileDiffusionNeurIPS 2023 | 扩散模型解决多任务强化学习问题西贡姑娘(上)
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。