Redian新闻
>
谷歌新作Imagic:扩散模型只用文字就能PS照片了!网友:效果太震撼...

谷歌新作Imagic:扩散模型只用文字就能PS照片了!网友:效果太震撼...

公众号新闻

点击下方卡片,关注“CVer”公众号

AI/CV重磅干货,第一时间送达

点击进入—> CV 微信技术交流群

转载:机器之心
甲方:「我想让这只小狗坐下。」AI:安排!


动动嘴皮子就能把图改好是甲方和乙方的共同愿望,但通常只有乙方才知道其中的酸楚。如今,AI 却向这个高难度问题发起了挑战。


在一篇 10 月 17 日上传到 arXiv 的论文中,来自谷歌研究院、以色列理工学院、以色列魏茨曼科学研究所的研究者介绍了一种基于扩散模型的真实图像编辑方法——Imagic,只用文字就能实现真实照片的 PS,比如让一个人竖起大拇指、让两只鹦鹉亲吻:


「求大神帮忙 P 一个点赞手势。」扩散模型:没问题,包在我身上。


从论文中的图像可以看出,修改后的图像依然非常自然,对需要修改的内容之外的信息也没有明显的破坏。类似的研究还有谷歌研究院和以色列特拉维夫大学之前合作完成的 Prompt-to-Prompt(Imagic 论文中的参考文献 [16]):



项目链接(含论文、代码):https://prompt-to-prompt.github.io/


因此,有人感慨说,「这个领域变化快到有点夸张了,」以后甲方真的动动嘴就可以想怎么改就怎么改了。



Imagic 论文概览



论文链接:https://arxiv.org/abs/2210.09276


将大幅度的语义编辑应用于真实照片一直是图像处理中一个有趣的任务。近年来,由于基于深度学习的系统取得了长足的进步,该任务已经引起了研究社区相当大的兴趣。


用简单的自然语言文本 prompt 来描述我们想要的编辑(比如让一只狗坐下)与人类之间的交流方式高度一致。因此,研究者们开发了很多基于文本的图像编辑方法,而且这些方法效果也都不错。


然而,目前的主流方法都或多或少地存在一些问题,比如:


1、仅限于一组特定的编辑,如在图像上作画、添加对象或迁移风格 [6, 28];

2、只能对特定领域的图像或合成的图像进行操作 [16, 36];

3、除了输入图像外,它们还需要辅助输入,例如指示所需编辑位置的图像 mask、同一主题的多个图像或描述原始图像的文本 [6, 13, 40, 44]。

本文提出了一种语义图像编辑方法「Imagic」以缓解上述问题。只需给定一个待编辑的输入图像和一个描述目标编辑的单一文本 prompt,该方法就可以对真实的高分辨率图像进行复杂的非刚性编辑。所产生的图像输出能够与目标文本很好地对齐,同时保留了原始图像的整体背景、结构和组成。


如图 1 所示,Imagic 可以让两只鹦鹉接吻或让一个人竖起大拇指。它提供的基于文本的语义编辑首次将如此复杂的操作应用于单个真实的高分辨率图像,包括编辑多个对象。除了这些复杂的变化之外,Imagic 还可以进行各种各样的编辑,包括风格变化、颜色变化和对象添加。



为了实现这一壮举,研究者利用了最近成功的文本到图像的扩散模型。扩散模型是强大的生成模型,能够进行高质量的图像合成。当以自然语言文本 prompt 为条件时,它能够生成与要求的文本相一致的图像。在这项工作中,研究者将它们用于编辑真实的图像而不是合成新的图像。


如图 3 所示,Imagic 完成上述任务只需要三步走:首先优化一个文本嵌入,使其产生与输入图像相似的图像。然后,对预训练的生成扩散模型进行微调,以优化嵌入为条件,更好地重建输入图像。最后,在目标文本嵌入和优化后的嵌入之间进行线性插值,从而得到一个结合了输入图像和目标文本的表征。然后,这个表征被传递给带有微调模型的生成扩散过程,输出最终编辑的图像。


为了证明 Imagic 的实力,研究者进行了几个实验,将该方法应用于不同领域的众多图像,并在所有的实验中都产生了令人印象深刻的结果。Imagic 输出的高质量图像与输入的图像高度相似,并与所要求的目标文本保持一致。这些结果展示了 Imagic 的通用性、多功能性和质量。研究者还进行了一项消融研究,强调了本文所提出的方法中每个组件的效果。与最近的一系列方法相比,Imagic 表现出明显更好的编辑质量和对原始图像的忠实度,特别是在承担高度复杂的非刚性编辑任务时。


方法细节


给定一个输入图像 x 和一个目标文本,本文旨在以满足给定文本的方式编辑图像,同时还能保留图像 x 的大量细节。为了实现这一目标,本文利用扩散模型的文本嵌入层来执行语义操作,这种方式有点类似于基于 GAN 的方法。研究人员从寻找有意义的表示开始,然后经过生成过程,生成与输入图像相似的图像。之后再对生成模型进行优化,以更好地重建输入图像,最后一步是对潜在表示进行处理,得到编辑结果。


如上图 3 所示,本文的方法由三个阶段构成:(1)优化文本嵌入以在目标文本嵌入附近找到与给定图像最匹配的文本嵌入;(2)微调扩散模型以更好地匹配给定图像;(3)在优化后的嵌入和目标文本嵌入之间进行线性插值,以找到一个既能达到图像保真度又能达到目标文本对齐的点。


更具体的细节如下:


文本嵌入优化


首先目标文本被输入到文本编码器,该编码器输出相应的文本嵌入,其中 T 是给定目标文本的 token 数,d 是 token 嵌入维数。然后,研究者对生成扩散模型 f_θ的参数进行冻结,并利用去噪扩散目标(denoising diffusion objective)优化目标文本嵌入 e_tgt



其中,x 是输入图像,是 x 的一个噪声版本,θ为预训练扩散模型权值。这样使得文本嵌入尽可能地匹配输入图像。此过程运行步骤相对较少,从而保持接近最初的目标文本嵌入,获得优化嵌入 e_opt。


模型微调


这里要注意的是,此处所获得的优化嵌入 e_opt 在通过生成扩散过程时,不一定会完全和输入图像 x 相似,因为它们只运行了少量的优化步骤(参见图 5 中的左上图)。因此,在第二个阶段,作者通过使用公式 (2) 中提供的相同损失函数优化模型参数 θ 来缩小这一差距,同时冻结优化嵌入。



文本嵌入插值


Imagic 的第三个阶段是在 e_tgt 和 e_opt 之间进行简单的线性插值。对于给定的超参数,得到然后,作者使用微调模型,以 为条件,应用基础生成扩散过程。这会产生一个低分辨率的编辑图像,然后使用微调辅助模型对目标文本进行超分辨率处理。这个生成过程输出最终的高分辨率编辑图像


实验结果


为了测试效果,研究者将该方法应用于来自不同领域的大量真实图片,用简单的文字 prompt 来描述不同的编辑类别,如:风格、外观、颜色、姿势和构图。他们从 Unsplash 和 Pixabay 收集了高分辨率的免费使用的图片,经过优化,用 5 个随机种子生成每个编辑,并选择最佳结果。Imagic 展示了令人印象深刻的结果,它能够在任何一般的输入图像和文本上应用各种编辑类别,如图 1 和图 7 中所示。



图 2 中是对同一张图片进行了不同的文字 prompt 实验,显示了 Imagic 的多功能性。



由于研究者利用的底层生成扩散模型是基于概率的,该方法可以对单一的图像 - 文本对生成不同的结果。图 4 展示了使用不同的随机种子进行编辑的多个选项(对每个种子的η稍作调整)。这种随机性允许用户在这些不同的选项中进行选择,因为自然语言的文本 prompt 一般都是模糊和不精确的。



研究将 Imagic 与目前领先的通用方法进行了比较,这些方法对单一输入的真实世界图像进行操作,并根据文本 prompt 对其进行编辑。图 6 展示了 Text2LIVE[7] 和 SDEdit[32] 等不同方法的编辑结果。


可以看出,本文的方法对输入图像保持了高保真度,同时恰当地进行了所需的编辑。当被赋予复杂的非刚性编辑任务时,比如「让狗坐下」,本文方法明显优于以前的技术。Imagic 是第一个在单一真实世界图像上应用这种复杂的基于文本的编辑的 demo。




点击进入—> CV 微信技术交流群


CVPR 2022论文和代码下载


后台回复:CVPR2022,即可下载CVPR 2022论文和代码开源的论文合集

后台回复:Transformer综述,即可下载最新的3篇Transformer综述PDF


目标检测和Transformer交流群成立


扫描下方二维码,或者添加微信:CVer222,即可添加CVer小助手微信,便可申请加入CVer-目标检测或者Transformer 微信交流群。另外其他垂直方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch、TensorFlow和Transformer等。


一定要备注:研究方向+地点+学校/公司+昵称(如目标检测或者Transformer+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群


▲扫码或加微信号: CVer222,进交流群


CVer学术交流群(知识星球)来了!想要了解最新最快最好的CV/DL/ML论文速递、优质开源项目、学习教程和实战训练等资料,欢迎扫描下方二维码,加入CVer学术交流群,已汇集数千人!


扫码进群

▲点击上方卡片,关注CVer公众号

整理不易,请点赞和在看

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
生成扩散模型漫谈:最优扩散方差估计(下)上海中国画院的故事(续)生成扩散模型漫谈:“硬刚”扩散ODENeurIPS 2022 | Stable Diffusion采样速度翻倍!清华提出扩散模型高效求解器虎年说说“虎牙”事GAN、扩散模型应有尽有,CMU出品的生成模型专属搜索引擎Modelverse来了Soft Diffusion:谷歌新框架从通用扩散过程中正确调度、学习和采样采样提速256倍,蒸馏扩散模型生成图像质量媲美教师模型,只需4步扩散模型再下一城!AR-LDM:用扩散模型合成连贯视觉故事!输入字幕就能脑补画面,代词ta都分得清7 Papers & Radios | 扩散模型只用文字PS照片;MIT泊松流生成模型击败扩散模型谷歌新作!Transformer杀入机器人领域!RT-1:97%成功率,轻松完成700多条控制指令!谷歌新作:基于扩散模型的视频生成【全球市场】远购风险准备金上调:效果评估和策略建议用文字描述给黑白照上色,这个免费网站火了!网友:比其他同类都好用生成扩散模型漫谈:统一扩散模型(理论篇)7 Papers & Radios | 谷歌推出DreamBooth扩散模型;张益唐零点猜想论文出炉奥克兰警方加大对小西贡警力投入,居民则表示:效果难测模型只要「变大」就能直通AGI?马库斯再次炮轰:三个危机已经显现!只需3个样本一句话,AI就能定制照片级图像,谷歌在玩一种很新的扩散模型卷!MIT泊松流生成模型击败扩散模型,兼顾质量与速度灰蘑菇: 在王府墙头享受“冷夏”,却被“漂泊的心”捕获生成扩散模型漫谈:最优扩散方差估计(上)斯坦福/谷歌大脑:两次蒸馏,引导扩散模型采样提速256倍!卷!用扩散模型合成连贯视觉故事,输入字幕就能脑补画面,代词ta都分得清卷!MIT提出泊松流生成模型击败扩散模型,兼顾质量与速度生成扩散模型漫谈:从万有引力到扩散模型谷歌提出DreamBooth:新扩散模型!只需3张图一句话,AI就能定制照片级图像!2022 剑桥 AI 全景报告出炉:扩散模型是风口,中国论文数量为美国的 4.5 倍一夜未归罗伯特格林的书——非虚构类(重度小说创作爱好者的强烈推荐+多图)
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。