Redian新闻
>
效率碾压DALL·E 2和Imagen,谷歌新模型达成新SOTA,还能一句话搞定PS

效率碾压DALL·E 2和Imagen,谷歌新模型达成新SOTA,还能一句话搞定PS

公众号新闻
Alex 羿阁 发自 凹非寺
量子位 | 公众号 QbitAI

新年伊始,谷歌AI又开始发力文字-图像生成模型了。

这次,他们的新模型Muse(缪斯)在CC3M数据集上达成了新SOTA(目前最佳水平)

而且其效率远超火爆全球的DALL·E 2和Imagen (这俩都属于扩散模型),以及Parti (属于自回归模型)

——单张512x512分辨率图像的生成时间被压缩到仅1.3秒。

在图像编辑方面,只需一句文字指令,就可以对原始图像进行编辑。

貌似不用再为学ps头秃了~)

如果想要效果更精准,还能选定遮罩位置,编辑特定区域。比如,把背景的建筑换成热气球。

Muse一经官宣,很快吸引了大波关注,目前原贴已收获4000+点赞。

看到谷歌的又一力作,有人甚至已经开始预言:

现在AI开发者的竞争非常激烈,看来2023将是非常精彩的一年。


比DALL·E 2和Imagen更高效

说回谷歌刚刚公开的Muse。

首先,就生成图片的质量来说,Muse的作品大都画质清晰、效果自然。

来看看更多例子感受一下~

比如戴着毛线帽的树懒宝宝正在操作电脑;再比如酒杯中的一只羊:

平时八竿子打不着的各种主体,在一张图里和谐共存,没啥违和感。

要是你觉得这些还只能算AIGC的基操,那不妨再看看Muse的编辑功能。

比如一键换装(还能换性别)

这既不需要加什么遮罩,还能一句话搞定。

而如果用上遮罩的话,就能实现更6的操作,包括一键切换背景,从原地切换到纽约、巴黎、再到旧金山。

还能从海边到伦敦、到花海,甚至飞到太空中的土星环上,玩一把刺激的滑板海豚跳。

(好家伙,不仅能轻松云旅游,还能一键上天......)

效果着实挺出色。那Muse背后都有哪些技术支持?为什么效率比DALL·E 2和Imagen更高?

一个重要的原因是,DALL·E 2和Imagen在训练过程中,需要将所有学到的知识都存储在模型参数中。

于是,它们不得不需要越来越大的模型、越来越多的训练数据来获取更多知识——将Better和Bigger绑在了一起。

代价就是参数量巨大,效率也受到了影响。

而据谷歌AI团队介绍,他们采用的主要方法名曰:掩码图像建模 (Masked image modeling)

这是一种新兴的自监督预训练方法,其基本思想简单来说就是:

输入图像的一部分被随机屏蔽掉,然后通过预训练文本任务进行重建。

Muse模型在离散标记的空间掩码上训练,并结合从预训练语言大模型中提取的文本,预测随机遮蔽的图像标记。

从上到下依次为:预训练的文本编码器、基础模型、超分辨率模型

谷歌团队发现,使用预先训练好的大语言模型,可以让AI对语言的理解更加细致透彻。

就输出而言,由于AI对物体的空间关系、姿态等要素把握得很不错,所以生成的图像可以做到高保真。

与DALL·E 2、Imagen等像素空间的扩散模型相比,Muse用的是离散的token,并且采样迭代较少

另外,和Parti等自回归模型相比,Muse使用了并行解码,效率也更高。

FID上获SOTA得分

前文提到,Muse不仅在效率上取得了提升,在生成图像质量上也非常优秀。

研究者把它与DALL·E、LAFITE、LDM、GLIDE、DALL·E 2,以及谷歌自家的Imagen和Parti进行PK,测试了它们的FID和CLIP分数。

(FID分数用于评估生成图像的质量,分数越低质量越高;CLIP分数则代表文本与图像的契合程度,分数越高越好。)

结果显示,Muse-3B模型在COCO验证集中的zero-shot FID-30K得分为7.88,仅次于参数更大的Imagen-3.4B和Parti-20B模型。

更优秀的是,Muse-900M模型在CC3M数据集上实现了新的SOTA,FID得分为6.06,这也意味着它与文字的匹配度是最高的。

同时,该模型的CLIP分数为0.26,也达到了同期最高水平。

除此之外,为了进一步证实Muse的出图效率,研究者还对比了Muse与其他模型的单张图像生成时间:

在256x256、512x512的分辨率上Muse均达到了最快速度:0.5s和1.3s。

研究团队

Muse的研究团队来自谷歌,两位共同一作分别是Huiwen Chang和Han Zhang。

Huiwen Chang,现为谷歌高级研究员。

她本科就读于清华大学,博士毕业于普林斯顿大学,有过在Adobe、Facebook等的实习经历。

Han Zhang,本科毕业于中国农业大学,硕士就读于北京邮电大学,后在罗格斯大学取得了计算机科学博士学位。

其研究方向是计算机视觉,深度学习和医学图像分析等。

不过值得一提的是,目前Muse还没有正式发布。


有网友调侃,虽然它应该很香,但以谷歌的“尿性”,Muse离正式发布可能还有很长时间——毕竟他们还有18年的AI都没发呢。

话说回来,你觉得Muse的效果怎么样?

对于其正式发布之事,有木有一点期待?

传送门:https://muse-model.github.io/
参考链接:https://twitter.com/AlphaSignalAI/status/1610404589966180360

「人工智能」、「智能汽车」微信社群邀你加入!

欢迎关注人工智能、智能汽车的小伙伴们加入交流群,与AI从业者交流、切磋,不错过最新行业发展&技术进展。

PS. 加好友请务必备注您的姓名-公司-职位噢 ~


点这里👇关注我,记得标星哦~

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见 ~ 

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
大幅超越DALL·E 2和Imagen,斯坦福发布RA-CM3模型,融合检索与生成WPP收购北美数字机构Fēnom Digital;凯捷旗下The Works公司公布新任命(广告狂人日报)3秒复制任何人的嗓音!微软音频版DALL·E细思极恐,连环境背景音也能模仿神了!科研小白也能一招搞定综述写作,这10篇Cell/Nature顶刊综述绝绝子。发现宝藏!师姐一天搞定PCR实验,还发了5+SCI全靠它!谷歌新作:基于扩散模型的视频生成ChatGPT代笔推理小说:谋杀破案剧情一气呵成,已瞒天过海出版26部,封面也拿DALL·E画7 Papers & Radios | NeurIPS'22获奖论文;英伟达一句话生成3D模型AAAI 2023 Oral | 如何识别未知标签?多模态知识迁移框架实现新SOTA一句话就能魔改视频主角,谷歌新「AI导演」惊呆网友:这画质也太赞了OpenAI CEO谈AI画图明星DALL·E 2:技术突破不多,地气接了不少扩散模型和Transformer梦幻联动!一举拿下新SOTA,MILA博士:U-Net已死NeurIPS 2022 | 一句话让3D模型生成逼真外观风格!精细到照片级细节!谷歌提出DreamBooth:新扩散模型!只需3张图一句话,AI就能定制照片级图像!FastTrack Universität 2023莱比锡大学公立语言项目招生简章畅游法国(37)-德法混血城AAAI 2023 Oral | 回归元学习,基于变分特征聚合的少样本目标检测实现新SOTA有效融合语言模型、图神经网络,文本图训练框架GLEM实现新SOTA只需3个样本一句话,AI就能定制照片级图像,谷歌在玩一种很新的扩散模型两位谷歌华人研究员发布首个纯视觉「移动UI理解」模型,四大任务刷新SOTA名声大噪的YOLO迎来YOLOv8,迅速包揽目标检测、实例分割新SOTA让多个模型达成迭代共识,MIT &谷歌新方法激发模型「群体智慧」AAAI 2023 | 如何识别未知标签?多模态知识迁移框架实现新SOTA推理速度比Stable Diffusion快2倍,生成、修复图像谷歌一个模型搞定,实现新SOTANetflix 创始人卸任 CEO;暴裁 1.2 万人,谷歌:负全责;索尼 PS 联手优衣库推主题 T 恤 | 极客早知道名字被改,谁之错?扩散模型和Transformer梦幻联动!替换U-Net,一举拿下新SOTA!全面碾压AdamW!谷歌新出优化器内存小、效率高,网友:训练GPT 2果然快扩散模型和Transformer梦幻联动!一举拿下新SOTA“苍生”只可一见,“血月”红光满面白底黑字,无需多说。。。妈妈病危 (二)一句话就能魔改视频主角,谷歌新「AI导演」惊呆网友:这画质也太赞了 | GGView如何提升深度学习算法效率,谷歌有这些绝招
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。