Redian新闻
>
苹果文生图大模型亮相:俄罗斯套娃式扩散,支持1024x1024分辨率

苹果文生图大模型亮相:俄罗斯套娃式扩散,支持1024x1024分辨率

科学

机器之心报道

编辑:杜伟、小舟

习惯了 Stable Diffusion,如今终于又迎来一个俄罗斯套娃式(Matryoshka)Diffusion 模型,还是苹果做的。

在生成式 AI 时代,扩散模型已经成为图像、视频、3D、音频和文本生成等生成式 AI 应用的流行工具。然而将扩散模型拓展到高分辨率领域仍然面临巨大挑战,这是因为模型必须在每个步骤重新编码所有的高分辨率输入。解决这些挑战需要使用带有注意力块的深层架构,这使得优化更困难,消耗的算力和内存也更多。

怎么办呢?最近的一些工作专注于研究用于高分辨率图像的高效网络架构。但是现有方法都没有展示出超过 512×512 分辨率的效果,并且生成质量落后于主流的级联或 latent 方法。

我们以 OpenAI DALL-E 2、谷歌 IMAGEN 和英伟达 eDiffI 为例,它们通过学习一个低分辨率模型和多个超分辨率扩散模型来节省算力,其中每个组件都单独训练。另一方面,latent 扩散模型(LDM)仅学习低分辨率扩散模型,并依赖单独训练的高分辨率自编码器。对于这两种方案,多阶段式 pipeline 使训练与推理复杂化,从而往往需要精心调整或进行超参。

本文中,研究者提出了俄罗斯套娃式扩散模型(Matryoshka Diffusion Models,MDM)它是用于端到端高分辨率图像生成的全新扩散模型。代码很快将释出。


论文地址:https://arxiv.org/pdf/2310.15111.pdf

该研究提出的主要观点是将低分辨率扩散过程作为高分辨率生成的一部分,通过使用嵌套 UNet 架构在多个分辨率上执行联合扩散过程。

该研究发现:MDM 与嵌套 UNet 架构一起实现了 1)多分辨率损失:大大提高了高分辨率输入去噪的收敛速度;2)高效的渐进式训练计划,从训练低分辨率扩散模型开始,按照计划逐步添加高分辨率输入和输出。实验结果表明,多分辨率损失与渐进式训练相结合可以让训练成本和模型质量获得更好的平衡。

该研究在类条件图像生成以及文本条件图像和视频生成方面评估了 MDM。MDM 让训练高分辨率模型无需使用级联或潜在扩散(latent diffusion)。消融研究表明,多分辨率损失和渐进训练都极大地提高了训练效率和质量。

我们来欣赏以下 MDM 生成的图片和视频。



方法概览

研究者介绍称,MDM 扩散模型在高分辨率中进行端到端训练,同时利用层级结构的数据形成。MDM 首先在扩散空间中泛化了标准扩散模型,然后提出了专用的嵌套架构和训练流程。

首先来看如何在扩展空间对标准扩散模型进行泛化

与级联或 latent 方法的不同之处在于,MDM 通过在一个扩展空间中引入多分辨率扩散过程,学得了具有层级结构的单个扩散过程。具体如下图 2 所示。


具体来讲,给定一个数据点 x ∈ R^N,研究者定义了与时间相关的隐变量 z_t =  z_t^1 , . . . , z_t^R  ∈ R^N_1+...NR。


研究者表示,在扩展空间中进行扩散建模有以下两点优点。其一,我们在推理期间通常关心全分辨率输出 z_t^R,那么所有其他中等分辨率被看作是额外的隐变量 z_t^r,增加了建模分布的复杂度。其二,多分辨率依赖性为跨 z_t^r 共享权重和计算提供了机会,从而以更高效的方式重新分配计算,并实现高效训练和推理。

接下来看嵌套架构(NestedUNet)如何工作

与典型的扩散模型类似,研究者使用 UNet 网络结构来实现 MDM,其中并行使用残差连接和计算块以保留细粒度的输入信息。这里的计算块包含多层卷积和自注意力层。NestedUNet 与标准 UNet 的代码分别如下。


除了相较于其他层级方法的简单性,NestedUNet 允许以最高效的方式对计算进行分配。如下图 3 所示,研究者早期探索发现,当以最低分辨率分配大部分参数和计算时,MDM 实现了明显更好的扩展性。


最后是学习

研究者使用常规去噪目标在多个分辨率下训练 MDM,如下公式 (3) 所示。


这里用到了渐进式训练。研究者按照上述公式 (3) 直接对 MDM 进行端到端训练,并展示出了比原始基线方法更好的收敛性。他们发现,使用类似于 GAN 论文中提出的简单渐进式训练方法,极大地加速了高分辨率模型的训练。

这一训练方法从一开始就避免了高成本的高分辨率训练,加速了整体收敛。不仅如此,他们还合并了混合分辨率训练,该训练方法在单个 batch 中同时训练具有不同最终分辨率的样本。

实验及结果

MDM 是一种通用技术,适用于可以逐步压缩输入维度的任何问题。MDM 与基线方法的比较如下图 4 所示。


表 1 给出了在 ImageNet(FID-50K)和 COCO(FID-30K)上的比较结果。


下图 5、6、7 展示了 MDM 在图像生成(图 5)、文本到图像(图 6)和文本到视频(图 7)方面的结果。尽管是在相对较小的数据集上进行训练的,但 MDM 仍显示出生成高分辨率图像和视频的强大零样本(zero-shot)能力。




感兴趣的读者可以阅读论文原文,了解更多研究内容。



© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
谁把我的博客删了?高合汽车创始合伙人李谦:智能驾驶更需要高分辨率显示屏支持120W快充,vivo X100手机通过3C认证实时文生图速度提升5-10倍,清华LCM/LCM-LoRA爆火,浏览超百万、下载超20万消息称Redmi K70标准版和Pro版均采用金属中框,支持120W快充WACV 2024 | SAFA:高效时空视频超分辨率的尺度自适应特征聚合腾讯混元大模型亮相!实测上手,对话腾讯副总裁蒋杰消息称vivo X100系列有望支持卫星通讯功能,支持双向文字等谷歌AI大模型Gemini亮相:擅长复杂学科推理,能懂编程语言 PK GPT-4卷疯了!环球、Dentons、CC攀比式扩招知产,EL起薪50w,入职即巅峰!对标DALL·E 3!Meta最强文生图Emu技术报告出炉腾讯混元大模型开放文生图;微软AI投资重心或转向应用和业务;国产大模型10月榜单公布丨AIGC大事日报文生图大型实践:揭秘百度搜索 AIGC 绘画工具的背后故事!苹果“套娃”式扩散模型,训练步数减少七成!KCL夏教授:深度学习算法提升光声成像分辨率的研究|收获一作论文与导师推荐信!17万网友围观!中国首例“AI文生图”著作权案庭审直播,AIGC构成作品吗?AI文生图有没有著作权?国内首例案件公开审理人类文明还在发展,支持俄罗斯与哈马斯的人要跟上来不只降本增效!文生图以后,AI正在帮助净化游戏环境IJCAI 2023 | 清华提出:具有显式位置增强的鲁棒场景文本图像超分辨率网络【孝子贤孙伺候着】之(4)你缺钱吗?文生图10倍速,视频实时渲染!清华发布LCM:兼容全部SD大模型、LoRA、插件等春晓时分超低训练成本文生图模型PixArt来了,效果媲美MJ,只需SD 10%训练时间Adobe新版AI绘画炸场,2k分辨率在线就能玩,网友:效果比DALL·E 3更强H100推理飙升8倍!英伟达官宣开源TensorRT-LLM,支持10+模型抖音封禁“快速过款”玩法;交个朋友入淘周年庆单日GMV破2亿;腾讯混元大模型开放“文生图”功能 | 一周简讯腾讯混元大模型亮相:全链路自研,聚焦应用死磕“幻觉”低成本扩大输入分辨率!华科大提出Monkey:新的多模态大模型明天九月视觉模型+大语言模型:首个支持10K+帧长视频理解任务的新型框架华硕推出 ProArt PA169CDV 绘图屏:15.6 英寸 4K 分辨率,支持 Wacom EMR 笔美国的富士山 - 瑞尼尔山 (Mt. Rainier)秒杀700亿Llama 2!最新国产大模型亮相,无需申请即可免费商用,背后公司来自私募巨头腾讯混元大模型再进化,文生图能力重磅上线,这里是一手实测
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。