Redian新闻
>
对标DALL·E 3!Meta最强文生图Emu技术报告出炉

对标DALL·E 3!Meta最强文生图Emu技术报告出炉

公众号新闻



  新智元报道  

编辑:Lumina
【新智元导读】可以说,Meta刚刚发布的Emu,在性能上毫不逊色于DALL·E 3!而Emu取得优异性能背后的原因是「质量调整」。

前几天,OpenAI刚刚推出DALL·E 3,文生图再次上升到一个新阶段,甚至有网友纷纷表示R.I.P. Midjourney。

在28号的Meta Connect大会上,小扎也推出了自家的人工智能图像生成模型——Emu(Expressive Media Universe)。

Emu最大的特点是,只用简单的文字,5秒即生图片。

比如:「一只在彩虹森林中的神仙猫咪」。

「徒步旅行者和北极熊」。

「水下的航天员」。

「在花丛中的一位女士」。

「如果恐龙是一只猫咪」。

与其他文生图模型相比,Emu最有趣的是,可以一键生成表情包。

当你正和人聊天时,不用绞尽脑汁去翻找一个合适的表情包了。

比如,和朋友约好了背包旅行,想要发一个生动的准备去旅行的表情包。

「一只快乐的刺猬骑着摩托车」

选择自己喜欢的一个,发送。

当然了,你可以生成各种各样的表情包,仅需要简单几个词。

很快,任何人都可以在Ins中进行图像编辑——重换风格和背景,背后就是由Emu和分割模型SAM加持。

重换风格,可以根据你所描述的风格,重构想像输出图片。

如下, 输入「水彩」,你的照片就立刻变成水彩画了。

或者,把扎克伯格小时候的照片变成「摇滚朋克风格」。

又或者给金毛换一个「长头发」,就得到了:

你甚至可以为图片更换背景。

找到一张自己躺在草坪中的照片,输入「被小狗包围」,一群可爱的小狗就伴你左右了。

又或者,家庭合照中,背景也可以随意切换。

Emu在发布会上可算是风光了一把,但其实在现场演示的前一天,Meta就在arXiv更新了Emu模型的论文。

论文地址:https://arxiv.org/abs/2309.15807

在这篇论文中,Meta介绍了Emu的训练方法:质量调整(quality-tuning),一种有监督的微调。

质量调整解决了在利用网络规模的图像-文本训练文本-图像模型时,生成高度美观的图像面临的挑战:美学对齐。

通过质量调整,可以有效指导预训练模型专门生成具有高度视觉吸引力的图像,同时保持视觉概念的通用性。

研究人员还将其泛用到其他模型架构中,如pixel diffusion和masked generative transformer,证明了质量调整方法的通用性。

质量调整的方法

生成模型的训练包括两个阶段:知识学习和质量学习。

在知识学习阶段,目标是获得从文本生成几乎任何内容的能力,这通常需要在数以亿计的图像-文本对上进行预训练。

而在质量学习阶段,模型将被限制输出高质量和美观的图片。

Meta研究人员将以提高质量和促进审美一致性为目的的微调过程称为质量调整。

经质量调整的Emu生成的图像

但质量调整有三个关键:

(1)微调数据集可以小得出奇,大约只有几千张图片;

(2)数据集的质量非常高,这使得数据整理难以完全自动化,需要人工标注;

(3)即使微调数据集很小,质量调整不仅能显著提高生成图片的美观度,而且不会牺牲通用性,因为通用性是根据输入提示的忠实度来衡量的。

整个质量调整过程有以下几个步骤:

潜在扩散架构

研究人员设计了一种可输出1024 X1024分辨率图像的潜在扩散模型。遵循标准的潜在扩散架构设计,模型有一个自动编码器(AE)将图像编码为潜在嵌入,并有一个U-Net学习去噪过程。

研究发现,常用的4通道自动编码器(AE-4)架构由于压缩率高,往往会导致所构建图像的细节丢失。

而这一问题在小物体中尤为明显。

为了进一步提高重建性能,研究人员使用了对抗性损失,并使用傅里叶特征变换对RGB图像进行了不可学习的预处理,将输入通道维度从3(RGB)提升到更高维度,以更好地捕捉精细结构。

用于不同通道尺寸的自动编码器的定性结果见下图。

此外,研究人员还增加了每个阶段的通道大小和堆叠残差块数量,以提高模型容量。

并且,此研究使用CLIP ViT-L和T5-XXL的文本嵌入作为文本条件。

预训练

研究人员策划了一个由11亿张图像组成的大型内部预训练数据集来训练模型,训练过程中模型的分辨率逐步提高。

在预训练的最后阶段,研究人员还使用了0.02的噪声偏移,这有利于生成高对比度的图像,从而提高生成图像的美感。

构建高质量对齐数据

从最初的数十亿张图片开始,使用一系列自动过滤器将图片数量减少到几亿张。

这些过滤器包括但不限于去除攻击性内容、美学分数过滤器、光学字符识别(OCR)字数过滤器(用于去除覆盖过多文字的图片)以及 CLIP 分数过滤器(用于去除图片与文字对齐度较差的样本)。

然后,通过图像大小和纵横比进行额外的自动过滤。

并且,为了平衡来自不同领域和类别的图片,研究人员利用视觉概念分类来获取特定领域的图片(如肖像、食物、动物、风景、汽车等)。

最后,通过基于专有信号(如点赞数)的额外质量过滤,这样可以将数据进一步减少到200K Human Filtering。

接下来,将数据集分两个阶段进行人工过滤,只保留极具美感的图片。

在第一阶段,训练通用注释器将图片库缩减到20K张。这一阶段的主要目标是优化召回率,确保排除通过自动过滤的中低质量图片。

在第二阶段,聘请精通摄影原理的专业注释员,筛选出高审美质量的图片,如下图。

这一阶段的重点是优化精确度,即只选择最好的图片。数据集遵循高质量摄影的基本原则,在各种风格的图像中普遍获得更具美感的图像,并通过人工评估进行验证。

质量调整

将视觉效果极佳的图像视为所有图像的子集,这些图像具有一些共同的统计数据。

研究人员使用64个小批量数据集对预训练模型进行微调。

在此阶段使用0.1的噪声偏移。但需要注意的是,尽早停止微调非常重要,因为在小数据集上微调时间过长会导致明显的过拟合,降低视觉概念的通用性。

但微调迭代次数不能超过5K,这个总迭代次数是根据经验确定的。

实验结果

质量调整的效果

研究人员将经过质量调整的Emu模型与预先训练的模型进行比较。

质量调整前后的随机定性测试结果见下图。

可以看到非写实图像也具有很高的美感,这验证研究提出的假设:在质量调整数据集中遵循某些摄影原则,可以提高各种风格的美感。

从数量上看,经过质量调整后,Emu在视觉吸引力和文本可信度方面都有显著优势。

具体来说,在Par-tiPrompts和OUl Prompts上,分别有 82.9% 和 91.2% 的视觉吸引力以及 36.7% 和 47.9% 的文本忠实度首选Emu。

相比之下,在视觉吸引力方面,预训练模型分别只有15.4% 和 7.9%的时间受到青睐,而在文字忠实性方面,PartiPrompts和OUl Prompts分别有 21.0% 和 18.5% 的时间受到青睐。

其余案例的结果均为平局。从这两组涵盖不同领域和类别的大量评估数据中视觉概念的通用性没有下降。

相反,这些改进广泛适用于各种风格。

SoTA 背景下的视觉吸引力

为了将Emu生成的图像的视觉吸引力与当前最先进的技术进行比较,研究人员将Emu与SDXLV1.0进行了比较。

可以看到,Emu比 SDXLv1.0 的视觉吸引力高出很多,包括在风格化(非写实)提示上。

并且,Meta证实了质量调整也可以改进其他流行的架构,如pixel diffusion和masked generative transformer。

研究人员从头开始重新实现和训练一个pixel diffusion和masked generative transformer,然后在 2000 张图像上对它们进行质量调整。

之后,研究人员在1/3随机抽样的PartiPrompts上对这两种经过质量调整的模型进行了评估。

如下图所示,经过质量调整后,两种架构在视觉吸引力和文本忠实度指标上都有显著改善。

消融研究

最后,Meta对微调数据集进行了消融研究,重点关注视觉吸引力,主要对数据集大小的影响进行研究。

下表中报告了在不同大小的随机抽样子集上进行的质量微调的结果,包括100、1000和2000的大小。

可以看到,即使只有100个微调图像,模型也能够被引导生成视觉上吸引人的图像。

与SDXL相比,微调后的胜率从24.8%跃升至了60%。

参考资料:

https://arxiv.org/abs/2309.15807





微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
媲美Gen-2,Meta多模态创AI生图新里程碑!破文生视频历史难题,静图秒变视频逼真到炸裂传OpenA正测试DALL·E 3模型;华为语音助手支持AI大模型;亚马逊组建AI大模型新团队丨AIGC大事日报种几棵香椿树,受益匪浅OpenAI祭出绘画神器,Midjourney一夜下台!DALL·E 3联手ChatGPT,无需prompt一笔成神DALL·E 3辣眼图流出!OpenAI 22页报告揭秘:ChatGPT自动改写Prompt微软深夜放大招:GPT-4 、DALL·E 3、GPTs免费用,自研大模型专用AI芯片DALL·E 3 微软Bing抢先测!马骑宇航员难题攻破!一张画指定50个物体GPT-4写代码,DALL·E 3+MJ搞定画面,AI版「愤怒的南瓜」来袭DALL·E 3必应开测!马骑宇航员难题攻破,一张画指定50个物体,微软前所未有深度参与研究西交、清华等发布多模态大模型,有望成为「DALL·E 4」技术路线?和AI一起「白日作梦」OpenAI救了Stable Diffusion!开源Dall·E3同款解码器,来自Ilya宋飏等体验 ChatGPT+DALL·E 3 王炸组合后,我再也回不去了GPT-4版微软Win11下周二见;千亿参数生物医药大模型面世;DALL·E 3模型将接入Bing丨AIGC大事日报Adobe新版AI绘画炸场,2k分辨率在线就能玩,网友:效果比DALL·E 3更强就这厨艺也交到女朋友了《星级男人通鉴》第12章 谁才是美丽一块石头的悲哀体验 DALL·E 3 + ChatGPT 王炸组合后,我感受到了甲方的快乐不到 600 行代码实现了《愤怒的小鸟》翻版,GPT-4+DALL·E 3+Midjourney 撼动游戏圈!DALL·E 3=Midjourney+PS?OpenAI悄悄推出「种子」功能,生图之后还能精修DALL·E 3 推理能力炸裂提升,OpenAI 抢跑“ChatGPT 原生”文生图模型又“卷”起来了!比 Stable Diffusion 中文理解能力更强、更懂国人的文生图模型是如何构建的?随便哼两句就能变歌曲,还有国宝歌手帮你演绎,音乐的 Dall·E 2 时刻来了DALL·E 3内部实测效果惊人!Karpathy生成逼真灵动「美国小姐」,50个物体一图全包OpenAI一夜颠覆AI绘画!DALL·E 3+ChatGPT强强联合,画面直接细节爆炸Midjourney V6来袭!性能对标DALL·E 3,争夺地表最强作图AI称号OpenAI扔出DALL·E 3!能画画的ChatGPT要来了:简单提示,讲出“超级向日葵刺猬”连环画DALL·E 3正式上线ChatGPT;智谱AI今年已融资25亿元;科大讯飞回应美国AI芯片出口管制丨AIGC大事日报遥感顶刊TGRS 2023!MUS-CDB:遥感目标检测中的主动标注的具有类分布平衡的混合不确定性采样ChatGPT与DALL·E 3之间的行业「黑话」被人发现了DALL·E 3瞬间生成素材,零成本制作数千万流水游戏!OpenAI总裁转赞文生图prompt不再又臭又长!LLM增强扩散模型,简单句就能生成高质量图像|ACM MM'23一提到妖魔鬼怪,中国人就嗨了!DALL·E 3关键技术公开!19页论文揭秘如何对提示词“唯命是从”科大讯飞回应美国AI芯片出口管制;DALL·E 3正式上线ChatGPT Plus和企业版丨AIGC日报
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。