Redian新闻
>
综述 | 多模态大模型最全综述来了!

综述 | 多模态大模型最全综述来了!

公众号新闻
来自:量子位
进NLP群—>加入NLP交流群

多模态大模型最全综述来了!

微软7位华人研究员撰写,足足119页——

它从目前已经完善的还处于最前沿的两类多模态大模型研究方向出发,全面总结了五个具体研究主题:

  • 视觉理解

  • 视觉生成

  • 统一视觉模型

  • LLM加持的多模态大模型

  • 多模态agent

并重点关注到一个现象:

多模态基础模型已经从专用走向通用

Ps. 这也是为什么论文开头作者就直接画了一个哆啦A梦的形象。

谁适合阅读这份综述(报告)

用微软的原话来说:

只要你想学习多模态基础模型的基础知识和最新进展,不管你是专业研究员,还是在校学生,它都是你的“菜”。

一起来看看~

一文摸清多模态大模型现状

这五个具体主题中的前2个为目前已经成熟的领域,后3个则还属于前沿领域。

1、视觉理解

这部分的核心问题是如何预训练一个强大的图像理解backbone。

如下图所示,根据用于训练模型的监督信号的不同,我们可以将方法分为三类:
标签监督、语言监督(以CLIP为代表)和只有图像的自监督。

其中最后一个表示监督信号是从图像本身中挖掘出来的,流行的方法包括对比学习、非对比学习和masked image建模。

在这些方法之外,文章也进一步讨论了多模态融合、区域级和像素级图像理解等类别的预训练方法。

还列出了以上这些方法各自的代表作品。

2、视觉生成

这个主题是AIGC的核心,不限于图像生成,还包括视频、3D点云图等等。

并且它的用处不止于艺术、设计等领域——还非常有助于合成训练数据,直接帮助我们实现多模态内容理解和生成的闭环。

在这部分,作者重点讨论了生成与人类意图严格一致的效果的重要性和方法(重点是图像生成)

具体则从空间可控生成、基于文本再编辑、更好地遵循文本提示和生成概念定制(concept customization)四个方面展开。

在本节最后,作者还分享了他们对当前研究趋势和短期未来研究方向的看法。

即,开发一个通用的文生图模型,它可以更好地遵循人类的意图,并使上述四个方向都能应用得更加灵活并可替代。

同样列出了四个方向的各自代表作:

3、统一视觉模型

这部分讨论了构建统一视觉模型的挑战: 

一是输入类型不同;

二是不同的任务需要不同的粒度,输出也要求不同的格式;

三是在建模之外,数据也有挑战。

比如不同类型的标签注释成本差异很大,收集成本比文本数据高得多,这导致视觉数据的规模通常比文本语料库小得多。

不过,尽管挑战多多,作者指出:

CV领域对于开发通用、统一的视觉系统的兴趣是越来越高涨,还衍生出来三类趋势:

一是从闭集(closed-set)到开集(open-set),它可以更好地将文本和视觉匹配起来。

二是从特定任务到通用能力,这个转变最重要的原因还是因为为每一项新任务都开发一个新模型的成本实在太高了;

三是从静态模型到可提示模型,LLM可以采用不同的语言和上下文提示作为输入,并在不进行微调的情况下产生用户想要的输出。我们要打造的通用视觉模型应该具有相同的上下文学习能力。

4、LLM加持的多模态大模型

本节全面探讨多模态大模型。

先是深入研究背景和代表实例,并讨论OpenAI的多模态研究进展,确定该领域现有的研究空白。

接下来作者详细考察了大语言模型中指令微调的重要性。

再接着,作者探讨了多模态大模型中的指令微调工作,包括原理、意义和应用。

最后,涉及多模态模型领域中的一些高阶主题,方便我们进行更深入的了解,包括:

更多超越视觉和语言的模态、多模态的上下文学习、参数高效训练以及Benchmark等内容。

5、多模态agent

所谓多模态agent,就是一种将不同的多模态专家与LLM联系起来解决复杂多模态理解问题的办法。

这部分,作者主要先带大家回顾了这种模式的转变,总结该方法与传统方法的根本差异。

然后以MM-REACT为代表带大家看了这种方法的具体运作方式。

接着全面总结了如何构建多模态agent,它在多模态理解方面的新兴能力,以及如何轻松扩展到包含最新、最强的LLM和潜在的数百万种工具中。

当然,最后也是一些高阶主题讨论,包括如何改进/评估多多模态agent,由它建成的各种应用程序等。

作者介绍

本报告一共7位作者。

发起人和整体负责人为Chunyuan Li。

他是微软雷德蒙德首席研究员,博士毕业于杜克大学,最近研究兴趣为CV和NLP中的大规模预训练。

他负责了开头介绍和结尾总结以及“利用LLM训练的多模态大模型”这章的撰写。

核心作者一共4位:

  • Zhe Gan

目前已进入Apple AI/ML工作,负责大规模视觉和多模态基础模型研究。此前是Microsoft Azure AI的首席研究员,北大本硕毕业,杜克大学博士毕业。

  • Zhengyuan Yang

微软高级研究员,罗切斯特大学博士毕业,获得了ACM SIGMM杰出博士奖等荣誉,本科就读于中科大。

  • Jianwei Yang

微软雷德蒙德研究院深度学习小组首席研究员。佐治亚理工学院博士毕业。

  • Linjie Li(女)

Microsoft Cloud & AI计算机视觉组研究员,普渡大学硕士毕业。

他们分别负责了剩下四个主题章节的撰写。

综述地址:
https://arxiv.org/abs/2309.10020


进NLP群—>加入NLP交流群

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
多模态大模型的幻觉问题与评估百度招聘多模态大模型实习生(内推)挑战GPT-4V,浙大校友推出开源版多模态大模型,获GitHub 6k+星标马毅团队新作!微调多模态大模型会「灾难性遗忘」多模态大模型幻觉降低30%!中科大等提出首个幻觉修正架构「Woodpecker」啄木鸟他们用一生来治愈童年从感知到理解-融合语言模型的多模态大模型研究清华团队攻破GPT-4V、谷歌Bard等模型,商用多模态大模型也脆弱?中文版开源Llama 2同时有了语言、多模态大模型,完全可商用回忆是人生的宝貴財富多模态大模型进展及应用 | 8月10日TF116报名大模型压缩首篇综述来啦~~独家 | 哈工深新跑出一家多模态大模型公司,聂礼强、张民等 AI 大牛加盟北京内推 | 腾讯光子工作室群招聘多模态大模型方向实习生中科大&字节提出UniDoc:统一的面向文字场景的多模态大模型西交、清华等发布多模态大模型,有望成为「DALL·E 4」技术路线?和AI一起「白日作梦」多模态大模型最全综述来了!7位微软研究员大力合作,5大主题,成文119页思谋进博会首秀:发布全球首个工业多模态大模型,现场与松下、江森自控签署全面战略合作破解一切模态,无限接近AGI!新加坡华人团队开源全能「大一统」多模态大模型幻觉降低30%!首个多模态大模型幻觉修正工作Woodpecker曝OpenAI大模型新进展!将推出多模态大模型,新项目Gobi筹备中新多模态大模型霸榜!支持图文混合输入,不懂知识还能现学正面硬刚GPT-4V!浙大校友开源多模态大模型LLaVA-1.5,130亿参数8个A100一天训完媒体基础:打开多模态大模型的新思路春游纽约- (上)Storm King Art center多模态大模型能力测评:Bard 是你需要的吗?给车年检GPT-5来了?OpenAI被曝加急训练多模态大模型Gobi,一举狙杀谷歌Gimini!阿里云中标9亿AI算力大单;浙大校友开源LLaVA-1.5多模态大模型;Meta因开源模型遭抗议丨AIGC大事日报马毅团队新作!微调多模态大模型会「灾难性遗忘」,让性能大减多模态大模型迸发,创业机会和挑战在哪?丨GAIR 2023实现输入到输出「模态自由」, NUS华人团队开源NExT-GPT,最接近AGI的大一统多模态大模型来了AI搞定谷歌验证码,最新多模态大模型比GPT-4V空间理解更准确 | 苹果AI/ML团队【周末综艺会9期】哭哭笑笑文档字越多,模型越兴奋!KOSMOS-2.5:阅读「文本密集图像」的多模态大语言模型
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。