Redian新闻
>
北大字节开辟图像生成新范式!超越Sora核心组件DiT,不再预测下一个token

北大字节开辟图像生成新范式!超越Sora核心组件DiT,不再预测下一个token

公众号新闻
鱼羊 发自 凹非寺
量子位 | 公众号 QbitAI

北大和字节联手搞了个大的:

提出图像生成新范式,从预测下一个token变成预测下一级分辨率,效果超越Sora核心组件Diffusion Transformer(DiT)。

并且代码开源,短短几天已经揽下1.3k标星,登上GitHub趋势榜。

具体是个什么效果?

实验数据上,这个名为VAR(Visual Autoregressive Modeling)的新方法不仅图像生成质量超过DiT等传统SOTA,推理速度也提高了20+倍

这也是自回归模型首次在图像生成领域击败DiT。

直观感受上,话不多说,直接看图:

值得一提的是,研究人员还在VAR上,观察到了大语言模型同款的Scaling Laws和零样本任务泛化。

论文代码上线,已经引发不少专业讨论。

有网友表示有被惊到,顿时觉得其他扩散架构的论文有点索然无味。

还有人认为,这是一种通向Sora的更便宜的潜在途径,计算成本可降低一个乃至多个数量级。

预测下一级分辨率

简单来说,VAR的核心创新,就是用预测下一级分辨率,替代了预测下一个token的传统自回归方法。

VAR的训练分为两个阶段。

第一阶段,VAR引入了多尺度离散表示,使用VQ-VAE将连续图像编码为一系列离散的token map,每个token map有不同的分辨率。

第二阶段,主要是对VAR Transformer的训练,通过预测更高分辨率的图像,来进一步优化模型。具体过程是这样的:

从最低分辨率(比如1×1)的token map开始,预测下一级分辨率(比如4×4)的完整token map,并以此类推,直到生成最高分辨率的token map(比如256×256)。在预测每个尺度的token map时,基于Transformer,模型会考虑之前所有步骤生成的映射信息。

在第二阶段中,之前训练好的VQ-VAE模型发挥了重要作用:为VAR提供了“参考答案”。这能帮助VAR更准确地学习和预测图像。

另外,在每个尺度内,VAR是并行地预测所有位置的token,而不是线性逐个预测,这大大提高了生成效率。

研究人员指出,采用这样的方法,VAR更符合人类视觉感知从整体到局部的特点,并能保留图像的空间局部性。

符合Scaling Laws

从实验结果来看,在图像生成质量、推理速度、数据效率和可扩展性等方面,VAR都超过了DiT。

在ImageNet 256×256上,VAR将FID从18.65降到了1.8,IS从80.4提高到356.4,显著改善了自回归模型基线。

注:FID越低,说明生成图像的质量和多样性越接近真实图像。

推理速度方面,相较于传统自回归模型,VAR实现了约20倍的效率提升。而DiT消耗的时间是VAR的45倍。

数据效率方面,VAR只需要350个训练周期(epoch),远少于DiT-XL/2的1400个。

可扩展性方面,研究人员观察到VAR有类似于大语言模型的Scaling Laws:随着模型尺寸和计算资源的增加,模型性能持续提升。

另外,在图像修补、扩展和编辑等下游任务的零样本评估中,VAR表现出了出色的泛化能力。

目前,在GitHub仓库中,推理示例、demo、模型权重和训练代码均已上线。

不过,在更多讨论之中,也有网友提出了一些问题:

VAR不如扩散模型灵活,并且在分辨率上存在扩展问题。

北大字节联合出品

VAR的作者们,来自字节跳动AI Lab和北大王立威团队。

一作田柯宇,本科毕业自北航,目前是北大CS研究生,师从北京大学信息科学技术学院教授王立威。2021年开始在字节AI Lab实习。

论文通讯作者,是字节跳动AI Lab研究员袁泽寰和王立威。

袁泽寰2017年博士毕业于南京大学,目前专注于计算机视觉和机器学习研究。王立威从事机器学习研究20余年,是首届“优青”获得者。

该项目的项目主管,是字节跳动广告生成AI研究主管Yi jiang。他硕士毕业于浙江大学,目前的研究重点是视觉基础模型、深度生成模型和大语言模型。

参考链接:
[1]论文:
https://arxiv.org/abs/2404.02905
[2]项目主页:https://github.com/FoundationVision/VAR

报名参会倒计时 ⏰

4月17日,中国AIGC产业峰会

只需一天,感受AIGC新应用正在引领的科技新范式!

来自产品、技术、投资等领域最主流的“玩家”代表和投资人,将在4月17日中国AIGC产业峰会,与你共同探讨AIGC正在重塑的新世界。了解更多峰会详情。

欢迎报名参会 ⬇️

峰会将全程线上下同步直播,欢迎预约直播 ⬇️


点这里👇关注我,记得标星噢

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见 ~ 

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
Stability AI让更多的开发者可以访问其下一代文本到图像生成器[旅游] Día de la Independencia | 2017年9月游墨西哥城第3-4天ICML 2024 | 川大提出外部引导的深度聚类新范式,大幅提升CLIP图像聚类性能港大和字节提出Groma:多模态大模型新范式!模拟人类先感知后认知,精确定位图中物体!Geoffrey Hinton:用更大模型「预测下一个词」值得全力以赴 | 5Y View统一所有模态的3D范式来了!Any2Point:仅需训练1%的参数量,超越SOTA!首个ICLR时间检验奖出炉!3万被引论文奠定图像生成范式,DALL-E 3/SD背后都靠它把整个地球装进神经网络,北航团队推出全球遥感图像生成模型图灵奖得主Bengio:突破大模型当前局限,需要超越Scaling Law的新方法生成式AI蔚然成风 店匠科技引领跨境电商新范式相聚多伦多(三十六)为母则刚港大字节提出多模态大模型新范式,模拟人类先感知后认知,精确定位图中物体3D资产生成领域福音:自动化所、北邮团队联合打造材质生成新范式Meta在WhatsApp中加入实时AI图像生成功能Hinton万字访谈:用更大模型「预测下一个词」值得全力以赴可控图像生成最新综述!北邮开源20页249篇文献,包揽Text-to-Image Diffusion领域各种「条件」人工智能通过单张雷达图像生成3D城市地图Mamba遇见扩散模型!DiM:无需微调,高分辨图像生成更高效!量化大模型退化严重?ETH北航字节推出LoRA新范式 | ICML 2024大模型预测,下一个token何必是文字?智能纤毛粘附设计新范式:超越壁虎仿生设计的极限 | NSR「个性化」图像生成时代来了!六大顶尖高校联手发布全新Gen4Gen框架一次预测多个token,Meta新模型推理加速3倍,编程任务提高17%阿尔特曼称GPT-5提升超想象;库克在中国首谈生成式AI;字节推出视频生成新模型丨AIGC大事日报超越Sora极限,120秒超长AI视频模型诞生!用GPT-3.5生成数据集!北大天工等团队图像编辑新SOTA,可精准模拟物理世界场景首个ICLR时间检验奖出炉!3万被引论文奠定图像生成范式!DALL-E 3/SD背后都靠它【求职战报】全球金融交易平台Deutsche Börse Systems销售运营面试邀约!ControlNet作者又出新作:百万数据训练,AI图像生成迎来图层设计可控图像生成最新综述!北邮开源20页249篇文献!CEO突然跑了!图像生成头部玩家Stability AI错在这……《情人节的奢望》 作者 冰花 英译 柳湄双林奇案录第三部之校园疑案: 第四节立春.雪我爱你
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。