Redian新闻
>
语言模型战胜扩散模型!谷歌提出MAGVIT-v2:视频和图像生成上实现双SOTA!

语言模型战胜扩散模型!谷歌提出MAGVIT-v2:视频和图像生成上实现双SOTA!

公众号新闻

点击下方卡片,关注“CVer”公众号

AI/CV重磅干货,第一时间送达

点击进入—>【多模态和扩散模型】交流群

在CVer微信公众号后台回复:MAGVIT2,可以下载本论文pdf,快学起来!

白交 发自 凹非寺
转载自:量子位(QbitAI)

语言模型击败扩散模型,在视频和图像生成上实现双SOTA!

这是来自谷歌CMU最新研究成果。

论文:https://arxiv.org/abs/2310.05737
https://magvit.cs.cmu.edu/v2/

据介绍,这是语言模型第一次在标志性的ImageNet基准上击败扩散模型。

而背后的关键组件在于视觉分词器(video tokenizer) ,它能将像素空间输入映射为适合LLM学习的token。

谷歌CMU研究团队提出了MAGVIT-v2,在另外两项任务中超越了之前最优视觉分词器。

大语言模型击败扩散模型

已经形成共识的是,大语言模型在各个生成领域都有出色的表现。比如文本、音频、代码生成等。

但一直以来在视觉生成方面,语言模型却落后于扩散模型。

团队认为,其主要原因在于缺乏一个好的视觉表示,类似于自研语言系统,能有效地对视觉世界进行建模。与自然语言不同,人类会对视觉世界尚未演化出最佳的词汇。而这也限制了大语言模型的视觉生成能力。

基于这样的判断,这篇研究主要完成了三项工作:

  • 提出一种新的视觉tokenizer,在视觉生成、视频压缩以及动作识别都优于此前最优表现。

  • 一种全新无查找(lookup-free)的量化方法,可通过学习大量词汇来提高语言模型的视觉生成质量;

  • 首次有证据表明,在相同训练数据、等效模型大小和类似训练预算的条件下,语言模型在ImageNet上击败扩散模型。

据作者介绍,这也是视觉分词器首次成功地实现了与标准编解码器相媲美的效果。

在原有SOTA视觉tokenizerMAGVIT (Masked Generative Video Transformer)基础上,该方法主要完成了两种设计:无查找量化(Lookup-Free Quantization ,LFQ)以及图像-视频联合tokenizer。

最终在视频/图像生成,ImageNet 512×512和Kinetics-600,都优于Diffusion Model。

而在视频压缩、动作识别上,也优于以往的结果。

一作是北大校友

一作于力军目前是CMU计算机科学学院语言技术研究所博士生,师从Alexander G. Hauptmann教授,同时也是谷歌学生研究员。研究兴趣在于多模态基础模型,特别是多任务视频生成。

在来到CMU前,他在北大获得了计算机和经济学双学士学位。

在研究团队中也看到了其他不少华人面孔。

通讯作者蒋路,目前是谷歌研究院科学家以及CMU的兼职教授。

他的研究主要针对多模态大数据科领域,特别是鲁棒深度学习、生成式人工智能和多模态基础模型。

在CVer微信公众号后台回复:MAGVIT2,可以下载本论文pdf,快学起来!

点击进入—>【多模态和扩散模型】交流群

ICCV / CVPR 2023论文和代码下载

后台回复:CVPR2023,即可下载CVPR 2023论文和代码开源的论文合集

后台回复:ICCV2023,即可下载ICCV 2023论文和代码开源的论文合集

多模态和扩散模型交流群成立


扫描下方二维码,或者添加微信:CVer444,即可添加CVer小助手微信,便可申请加入CVer-多模态或者扩散模型 微信交流群。另外其他垂直方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch、TensorFlow和Transformer、NeRF等。


一定要备注:研究方向+地点+学校/公司+昵称(如多模态或者扩散模型+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群

▲扫码或加微信号: CVer444,进交流群


CVer计算机视觉(知识星球)来了!想要了解最新最快最好的CV/DL/AI论文速递、优质实战项目、AI行业前沿、从入门到精通学习教程等资料,欢迎扫描下方二维码,加入CVer计算机视觉,已汇集数千人!


扫码进星球


▲点击上方卡片,关注CVer公众号

整理不易,请点赞和在看

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
文生图prompt不再又臭又长!LLM增强扩散模型,简单句就能生成高质量图像|ACM MM'23NeurIPS 2023 Spotlight | 半监督与扩散模型结合,实现少标签下可控生成NeurIPS 2023 | SlotDiffusion: 基于Slot-Attention和扩散模型的全新生成模型ICCV 2023 | 基于预训练视觉语言模型和大语言模型的零样本图像到文本生成皮带哥的皮带断了,裤子落下GPT-4+物理引擎加持扩散模型,生成视频逼真、连贯、合理重磅!OpenAI 在 ChatGPT 内推出语言和图像功能终结扩散模型,IGN单步生成逼真图像!UC伯克利谷歌革新LLM,美剧成灵感来源谷歌重磅新作PaLI-3:视觉语言新模型!更小、更快、更强耶鲁&谷歌提出HyperAttention:近线性时间的长上下文注意力NeurIPS 2023 Spotlight|高质量多视角图像生成,完美复刻场景材质!SFU等提出MVDiffusionNeurIPS 2023 | 王利民团队提出MixFormerV2:首个基于ViT并在CPU设备实时运行的目标跟踪器!武大&港大提出FreeReg:预训练扩散大模型取得点云-图像配准SoTA!1/10体量达到SOTA!谷歌发布5B参数视觉语言模型PaLI-3,更小更快却更强MIT惊人再证大语言模型是世界模型!LLM能分清真理和谎言,还能被人类洗脑ChatGPT只算L1阶段,谷歌提出AGI完整路线图7.7亿参数,超越5400亿PaLM!UW谷歌提出「分步蒸馏」,只需80%训练数据|ACL 2023ICCV 2023 | TUM&谷歌提出md4all:挑战性条件下的单目深度估计刷新多个SOTA!北大提出Video-LLaVA:超强视频语言大模型!度假加勒比 (五) 聖基茨(Kitts)科研上新 | 第2期:可驱动3D肖像生成;阅读文本密集图像的大模型;文本控制音色;基于大模型的推荐智能体ICCV 2023 Oral | HumanSD:更可控更高效的人体图像生成模型微软提出KOSMOS-2.5,能阅读「文本密集图像」的多模态大语言模型为什么5%的GDP增长,经济还是很痛苦?在图像、视频生成上,语言模型首次击败扩散模型,tokenizer是关键《我的心愿》&《扎巴依的春天》华为提出Sorted LLaMA:SoFT代替SFT,训练多合一大语言模型谷歌新作UFOGen:通过扩散GAN实现大规模文本到图像生成NeurIPS 2023 | 扩散模型再发力!微软提出TextDiffuser:图像生成的文字部分也能搞定!画你所想!北航港大提出DiffSketcher:基于扩散模型的文本驱动矢量化手绘草图合成大语言模型击败扩散模型!视频图像生成双SOTA,谷歌CMU最新研究,一作北大校友一拖一拽,玫瑰复活了!谷歌提出生成图像动力学,从此万物皆有灵狙击扩散模型!谷歌&伯克利提出IGN:单步生成逼真图像!ICCV 2023最佳论文候选!谷歌提出Zip-NeRF:照片转视频,像航拍一样丝滑!红色日记 4.21-30
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。