Redian新闻
>
微软提出CoDi:开创性多模态扩散生成模型,实现4种模态任意输入输出

微软提出CoDi:开创性多模态扩散生成模型,实现4种模态任意输入输出

公众号新闻

点击下方卡片,关注“CVer”公众号

AI/CV重磅干货,第一时间送达

点击进入—>【多模态和Transformer】交流群

萧箫 发自 凹非寺
转载自:量子位(QbitAI)

多模态大模型,终于迎来“大一统”时刻!

从声音、文字、图像到视频,所有模态被彻底打通,如同人脑一般,实现了真正意义上的任意输入,任意输出

要知道,多模态一直是学术界公认要达到更强智能的必经之路,连GPT-4都在往这个方向发展。

也正是因此,这项来自微软、北卡罗来纳大学教堂山分校的新研究一经po出,立即在社交媒体上爆火,有网友惊叹:

这是我最近见过最不可思议的一篇论文!

究竟有多不可思议?

只需告诉大模型,想要“一只玩滑板的泰迪熊”,并输入一张照片+一段声音:


它立刻就能精准get要点,生成一段在下雨天在城市里玩滑板的心碎小熊录像,仔细听还会发现配上了新的雨声

效果太过于鹅妹子嘤,以至于不少网友表示“有被吓到”:

还有网友感叹“新时代的到来”:

等不及看到创作者们用这些AI工具制作各种沉浸式故事体验了。这简直给RPG角色扮演游戏赋予了全新的意义。

值得一提的是,一作Zineng Tang虽然本科还没毕业,但他已经在CVPR、发了6篇顶会论文,其中5篇都是一作

所以,这个号称能够“转一切”(any-to-any)的大一统大模型,实现效果究竟如何?

4种模态随意选,打出“组合拳”

大模型CoDi,具有任意输入和输出图、文、声音、视频4种模态的能力。

无论是单模态生成单模态(下图黄)、多模态生成单模态(下图红)、还是多模态生成多模态(下图紫),只要指定输入和输出的模态,CoDi就能理解并生成想要的效果:

先来看单模态生成单模态

输入任意一种模态,CoDi都能联想并输出指定的模态,例如,输入一张风景图像,就能输出“山景,日出”这样的文字提示词:

或是输入一段铁轨碰撞声,就能生成一张地铁图像:

面对多模态生成单模态时,CoDi威力同样不减。

输入一张“熊猫吃竹子”图像,加上一段“在咖啡桌上吃”的文字要求:

CoDi就能生成一段大熊猫坐在咖啡桌旁吃竹子的视频:

或是输入一组文字提示词“油画,恐怖画风,优雅复杂的概念艺术,克雷格·穆林斯(CG绘画之父)风格”,加上一段拍打木板的水声:


CoDi在经过联想后,就能输出一张精致的、气势恢宏的黄昏时分海盗船画像:

最后来看看多模态生成多模态的效果。

给CoDi提供一段钢琴声,加上一张森林中的照片:


CoDi就能想象出一段“在森林中弹钢琴”的文字,并配上对应的插图:

要知道在这之前,AI生成的视频不少都没有配音,停留在老式的“无声电影”阶段。

然而CoDi不仅能生成视频,还能生成搭配视频食用的声音。

例如根据一个“天空中的花火”文字提示词+一段对应的音频,就能生成一个带有爆炸声音的烟花录像:

所以,CoDi究竟是如何做到理解不同的模态,并“打出组合拳”的?

用“对齐”来节省大模型训练数据

事实上,CoDi的打造面临两个难点。

首先是缺少训练数据的问题,以作者们能收集到的数据集为例:

无论是像Laion400M这样的文图数据集、还是像AudioSet之类的音频文字数据集,或是油管上的图像音视频数据集,以及Webvid10M之类的视频数据集,都属于“单模态生成单个或两个模态”的类型。

然而,多模态大模型的训练数据需求,随着模态数量的增加呈指数级增长,许多输入输出组合,往往缺少对应的训练数据集。

其次,已有的扩散模型大多是1v1的类型,如何设计并训练模型,确保多模态输入输出的效果,同样是个问题。

针对这两个问题,作者们决定分两个阶段打造CoDi,让它不仅能实现单模态“完美输出”、还能做到多模态“1+1>2”。

阶段一,组合条件训练,给每个模态都打造一个潜在扩散模型(LDM),进行组合训练。

针对A模态生成B模态数据集缺失的问题,作者们提出了一种名为桥接对齐(Bridging Alignment)的策略。

具体来说,就是以带文本模态的数据集为“中介”,对齐另外几种模态的训练效果。

以音频生成图像为例。

虽然音频生成图像数据集不多,但文本生成音频、文本生成图像的数据集却有不少,因此可以将这两类数据集合并起来,用于训练文本+音频生成图像的效果。

在此期间,文本和音频输入经过模型处理,会被“放置”进一个共享特征空间,并用输出LDM来处理输入输入的组合特征,输出对应的图像结果。

阶段二,进一步增加生成的模态数量。

在阶段一的基础上,给每个潜在扩散模型和环境编码器上增加一个交叉注意力模块,就能将潜在扩散模型的潜变量投射到共享空间中,使得生成的模态也进一步多样化。

最终训练出来的模型,虽然训练数据类型不是“全能的”,但也具备了多模态输入、多模态输出的能力。

值得一提的是,可别以为这种方法会降低模型生成的质量。

事实上,在多种评估方法上,CoDi均超越了现有多模态大模型的生成效果。

华人本科生,5篇顶会论文一作

一作Zineng Tang,本科就读于北卡罗来纳大学教堂山分校,也是微软研究院的实习生,今年6月将进入加州大学伯克利分校读博。

他的研究兴趣在于多模态学习、机器学习和NLP领域,而从大一开始,他就在NeurIPS、CVPR、ACL和NAACL等顶会上相继发了6篇文章,其中5篇一作。

就在今年1月,Zineng Tang还获得了2023年的美国计算机研究学会(CRA)设立的优秀本科生研究员奖。

每年全美国能获得这个奖项的本科生,只有4人

这一奖项旨在表彰在计算机研究领域有杰出研究潜力的本科生,包括MIT、斯坦福、哈佛和耶鲁大学等不少北美名校在内,每年都会提名一些优秀学生,经过层层筛选后决定获奖者。

通讯作者Ziyi Yang,目前是微软Azure认知服务研究团队(CSR)的高级研究员,研究方向是多模态理解和生成,文档智能和NLP等。

在加入微软之前,他本科毕业于南京大学物理系,并于斯坦福大学获得电气工程硕士和机械工程博士学位。

通讯作者Mohit Bansal,是北卡罗来纳大学教堂山分校计算机系教授。他于加州大学伯克利分校获得博士学位,目前研究方向是NLP和多模态机器学习,尤其侧重语言生成问答和对话、以及可解释深度学习等。

你感觉多模态大模型发展的下一阶段,会是什么样子?

论文地址:
https://arxiv.org/abs/2305.11846

项目地址:
https://github.com/microsoft/i-Code/tree/main/i-Code-V3

参考链接:
[1]https://twitter.com/AviSchiffmann/status/1660771055676588033

[2]https://twitter.com/ZinengTang/status/1660726736642887681
[3]https://cra.org/2023-outstanding-undergraduate-researcher-award-recipients/
[4]https://codi-gen.github.io/

点击进入—>【多模态和Transformer】交流群


最新CVPR 2023论文和代码下载


后台回复:CVPR2023,即可下载CVPR 2023论文和代码开源的论文合集

后台回复:Transformer综述,即可下载最新的3篇Transformer综述PDF


多模态和Transformer交流群成立


扫描下方二维码,或者添加微信:CVer333,即可添加CVer小助手微信,便可申请加入CVer-多模态或者Transformer 微信交流群。另外其他垂直方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch、TensorFlow和Transformer等。


一定要备注:研究方向+地点+学校/公司+昵称(如多模态和Transformer+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群


▲扫码或加微信号: CVer333,进交流群


CVer计算机视觉(知识星球)来了!想要了解最新最快最好的CV/DL/AI论文速递、优质实战项目、AI行业前沿、从入门到精通学习教程等资料,欢迎扫描下方二维码,加入CVer计算机视觉,已汇集数千人!


扫码进星球


▲点击上方卡片,关注CVer公众号

整理不易,请点赞和在看

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
智源Emu开源!超越DeepMind,刷新8项SOTA,首个「多模态-to-多模态」全能高手从零训练一个多模态LLM:预训练+指令微调+对齐+融合多模态+链接外部系统回国之旅,想尝尝油渣炖豆腐ICLR 2023 | 解决VAE表示学习问题,北海道大学提出新型生成模型GWAE微软提出自动化神经网络训练剪枝框架OTO,一站式获得高性能轻量化模型港大和微软提出Uni-ControlNet:可控制扩散模型再添一员!行业首发 │ 本所为EB-5客户实现开创性里程碑:获得新政EB-5下首个I-526E批准“大一统”大模型论文爆火,4种模态任意输入输出更强更通用:智源「悟道3.0」Emu多模态大模型开源,在多模态序列中「补全一切」字节团队提出猞猁Lynx模型:多模态LLMs理解认知生成类榜单SoTA多模态大语言模型综述来啦!一文带你理清多模态关键技术用GPT-4实现可控文本图像生成,UC伯克利&微软提出新框架Control-GPT多模态如何自监督?爱丁堡等最新「自监督多模态学习」综述:目标函数、数据对齐和模型架构《心中最美的歌》&《山水相恋》剑桥、腾讯AI Lab等提出大语言模型PandaGPT:一个模型统一六种模态CVPR 2023 | 多个扩散模型相互合作,新方法实现多模态人脸生成与编辑扩散模型生成带汉字图像,一键输出表情包:OPPO等提出GlyphDraw达摩院猫头鹰mPLUG-Owl亮相:模块化多模态大模型,追赶GPT-4多模态能力CVPR 2023 | 微软提出LDGM:利用解耦扩散模型统一版面生成ChatGPT自己会选模型了!浙大和微软提出:HuggingGPT剑桥&腾讯AI Lab提出PandaGPT:一个模型统一六种模态「大一统」大模型论文爆火,4种模态任意输入输出,华人本科生5篇顶会一作,网友:近期最不可思议的论文经常权变外派故事25 --- KTV历险记一个AI驱动百万个API!微软提出多任务处理模型TaskMatrix,机器人和物联网终于有救了亚裔右转是自由派司法改革的错?BLIP-2、InstructBLIP稳居前三!十二大模型,十六份榜单,全面测评「多模态大语言模型」K12全科目标注人员招聘!微软提出MathPrompter后,难道国内直接全搞了吗?OpenAI再发3D生成模型Shap-E,传Midjourney入局3D模型生成中国人民大学卢志武:ChatGPT对多模态通用生成模型的重要启发腾讯AI Lab发布多模态指令调优语言模型,支持图像、视频等四种不同模态图像生成终结扩散模型,OpenAI「一致性模型」加冕!GAN的速度一步生图,高达18FPSCVPR 2023 | 大连理工和微软提出SeqTrack:目标跟踪新框架综述|如何利用LLM做多模态任务?中科院发布多模态 ChatGPT,图片、语言、视频都可以 Chat ?中文多模态大模型力作
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。