Redian新闻
>
开源多模态大模型哪家强?TOP12榜单来了,GitHub揽获2.2k+星

开源多模态大模型哪家强?TOP12榜单来了,GitHub揽获2.2k+星

公众号新闻
整理自 Happy
量子位 | 公众号 QbitAI

GPT-4的爆火,彻底掀起了学术界对于多模态大模型的研究热潮。

不过,这类模型的性能究竟要如何衡量,业界却一直众说纷纭,没有一个覆盖面足够广泛的评价标准

此外,也还没有一篇完整综述对其进行定义和研究。

考虑到这一点,腾讯优图分别联合中国科学技术大学以及厦门大学,一连发布了两篇关于多模态大模型的论文。

这里面不仅有首篇多模态大模型综述——

还有一个全面的评测榜单

相关项目在GitHub上爆火,截至7月3号已经揽获2200+星。

那么,当前业界最好用的多模态大模型究竟有哪些?它的定义、关键技术、优势和存在的挑战又是什么?

我们一起来看看。

多模态大模型TOP12排行

研究人员一共设置了16个榜单,包括了两个总榜单和14个子任务。

总榜单可以看做是模型“整体能力”的评分,分为感知类认知类,14个子任务则是其中的一些细分小任务,可以评测多模态大模型是不是更擅长做某件事。

研究人员一共挑选了12个开源多模态大模型,给评测标准做个“示范”。

感知类总榜单,是将各项感知任务综合起来的总评分,显示是BLIP-2最高:

认知类总榜单,则是各种涉及认知类任务的榜单,加起来是MiniGPT-4最高:

评测结果发现,BLIP-2和InstructBLIP在这两个榜单中都保持在前三,属实是当前开源多模态大模型的“顶流玩家”了。

具体到14个子任务上,模型的排名又有所不同。

评测结果具体如下,谁更“偏科”、谁更能在各种任务上做到综合性最优,可以说是一目了然:

所以,这个榜单的评分结果究竟是如何得出的呢?

评分标准如何得出

论文认为,一个好的多模态大模型评分标准,应该具备以下四大特性

(1)应该覆盖尽可能多的范围,包括感知和认知能力(感知是认知的基础)。

其中,前者指的是识别物体,包括其存在性、数量、位置和颜色等;后者指的是基于综合感知信息以及LLM中的知识来进行更复杂的推理,包括包括常识推理、数值计算、文本翻译和代码推理等任务。

(2)它的数据或者标注应该尽可能避免采用已有的公开数据集,以减少数据泄露的风险。

因此,评测中所有的指令-答案对都应该是人工构建的,对于少量使用到的公开数据集,仅使用其图像而没有依赖其原始标注。同时,尽力通过人工拍摄和图像生成的方式来采集数据。

(3)指令设计应该尽可能简洁,并且符合人类的认知习惯。

不同的指令设计可能会极大影响模型的输出,但所有的模型都在统一的简洁指令下进行评测可以保证公平性。一个好的多模态大模型应该具备泛化到这种简洁指令上的能力,避免陷入提示工程。

(4)多模态大模型在该简洁指令下的输出应该是直观的、并且便于定量统计。

多模态大模型开放式的回答给量化统计提出了很大挑战。现有方法倾向于使用GPT或者人工打分,但可能面临着不准确和主观性的问题。

因此,在经过制作后,最后的评测问题大约长这样:

随后, 根据模型回答的准确性来进行判分。

值得一提的是,作者们也尝试过设计选择题的指令,但发现当前的多模态大模型还难以跟随这类较为复杂的指令。(doge)

首篇多模态大模型综述

当然,这个榜单的评测标准并非“空穴来风”。

要想知道为什么榜单这样评分,可以去看看另一篇关于多模态大模型的论文综述,后者仔细整理了它的定义、关键技术和挑战。

具体来说,论文将多模态大模型(MLLM)定义为“由LLM扩展而来的具有接收与推理多模态信息能力的模型”。

这类模型相较于热门的单模态LLM,具有以下优势:

  • 更符合人类认知世界的习惯。人类具有多种感官来接受多种模态信息,这些信息通常是互为补充、协同作用的。因此,使用多模态信息一般可以更好地认知与完成任务。

  • 更加强大与用户友好的接口。通过支持多模态输入,用户可以通过更加灵活的方式输入与传达信息。

  • 更广泛的任务支持。LLM通常只能完成纯文本相关的任务,而MLLM通过多模态可以额外完成更多任务,如图片描述和视觉知识问答等。

因此,要想研究这类多模态大模型,往往需要掌握三个关键技术

1、多模态指令微调(Multimodal Instruction Tuning, M-IT)
2、多模态上下文学习(Multimodal In-Context Learning, M-ICL)
3、多模态思维链(Multimodal Chain of Thought, M-CoT)

除此之外,还需要针对它的一个应用进行研究(以 LLM 为核心的多模态系统),即LLM辅助的视觉推理(LLM-Aided Visual Reasoning, LAVR)

不过,目前多模态大模型还处于起步阶段,因此也存在一些挑战,如感知能力受限、推理链较为脆弱、指令服从能力需要进一步提升以及物体幻视问题普遍存在等。

更多综述细节和榜单详情,可以戳论文查看~

多模态大模型榜单:
https://github.com/BradyFU/Awesome-Multimodal-Large-Language-Models/tree/Evaluation

论文地址:
[1]综述:https://arxiv.org/abs/2306.13549

[2]评测:https://arxiv.org/abs/2306.13394

「AIGC+垂直领域社群」

招募中!

欢迎关注AIGC的伙伴们加入AIGC+垂直领域社群,一起学习、探索、创新AIGC!

请备注您想加入的垂直领域「教育」或「电商零售」,加入AIGC人才社群请备注「人才」&「姓名-公司-职位」。


点这里👇关注我,记得标星哦~

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见 ~ 

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
中科院发布多模态 ChatGPT,图片、语言、视频都可以 Chat ?中文多模态大模型力作王小川大模型2个月交卷!开源7B规模里中文最强,GitHub揽星2.2k达摩院猫头鹰mPLUG-Owl亮相:模块化多模态大模型,追赶GPT-4多模态能力多模态大语言模型综述来啦!一文带你理清多模态关键技术训练开销骤减,10%成本定制专属类GPT-4多模态大模型第一百一十七章 喜讯独家 | 多模态大模型初创企业“智子引擎”,近日完成千万元天使轮融资专访生数科技唐家渝:清华系团队拿到上亿融资,用Transformer来做多模态大模型训练成本不到1000元,直降90%!NUS、清华发布VPGTrans:轻松定制类GPT-4多模态大模型智源Emu开源!超越DeepMind,刷新8项SOTA,首个「多模态-to-多模态」全能高手微软开源多模态聊天机器人 Visual ChatGPT让ChatGPT调用10万+开源AI模型!HuggingFace新功能爆火:大模型可随取随用多模态AI工具请改变您的当下,让幸福从此降下紫东太初全模态大模型来了,一个模型打通感知、认知、决策交互屏障清华系面壁智能开源中文多模态大模型VisCPM :支持对话文图双向生成,吟诗作画能力惊艳BLIP-2、InstructBLIP稳居前三!十二大模型,十六份榜单,全面测评「多模态大语言模型」盘点十个国家的阅兵仪式:你最点赞哪个国家?【转贴】中文版开源Llama 2同时有了语言、多模态大模型,完全可商用VPGTrans: 10%的成本定制你自己的类GPT-4多模态大模型阿里达摩院大模型公开课上新!主讲中文个性化对话大模型ChatPLUG和模块化多模态大模型mPLUG-Owl融资千万,结盟软通动力,人大多模态大模型元乘象正在圈地大B市场|甲子光年追赶GPT-4的多模态大模型对比分析字节 | 大模型BuboGPT:引入视觉定位,实现细粒度多模态,已开源我,按摩和按摩院的故事GitHub斩获2.2k星!多模态大语言模型首篇综述,论文列表实时更新在线可玩:阿里开源多模态大模型mPLUG-Owl,电影问答、梗图理解、多轮聊天……能「说」会「画」, VisCPM:SOTA 开源中文多模态大模型650亿参数,训练飙升38%!LLaMA基础大模型复刻最佳实践开源,GitHub已获30k星《黄浦江》 —— 第5章 薇园秋夜(3)独家 | 多模态大模型初创企业「智子引擎」,近日完成千万元天使轮融资从感知到理解-融合语言模型的多模态大模型研究多模态大模型的下一站在哪里?专访生数科技唐家渝:清华系团队拿到近亿融资,用Transformer来做多模态大模型更强更通用:智源「悟道3.0」Emu多模态大模型开源,在多模态序列中「补全一切」MetaGPT爆火出圈!2美元就能当老板,GitHub狂揽11.2k星,AI智能体「多面手」诞生
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。