Redian新闻
>
更适合中文LMM体质的基准CMMMU来了:超过30个细分学科,12K专家级题目

更适合中文LMM体质的基准CMMMU来了:超过30个细分学科,12K专家级题目

公众号新闻
机器之心专栏
机器之心编辑部


近期,随着多模态大模型(LMM) 的能力不断进步,评估 LMM 性能的需求也日益增长。与此同时,在中文环境下评估 LMM 的高级知识和推理能力的重要性更加突出。


在这一背景下,M-A-P 开源社区、港科大、滑铁卢大学、零一万物等联合推出了面向中文大规模多学科多模态理解和推理基准 CMMMU(Chinese Massive Multi-discipline Multimodal Understanding and Reasoning),用于评估基本模型在中文各种任务中的专家级多模式理解能力。


CMMMU 涵盖 6 个大类学科,包括艺术、商业、健康和医学、科学、人文与社会科学、技术与工程,跨越 30 多个细分领域学科。下图给出了每个细分领域学科的一个题目示例。CMMMU 是第一个在中文背景下的多模态基准,也是现有少数的考察 LMM 复杂理解和推理能力的多模态基准之一。



数据集构建


数据采集


数据采集分为三个阶段,第一阶段由研究者们为每一个科目收集满足版权许可要求的题目来源(网页或者书籍),同时避免题源重复,然后第二阶段,研究者们将题源转发给众包标注者以进行进一步的标注。所有的标注者都是本科生或更高的学位,以确保他们可以验证标注的问题和相关的解释。在标注过程中,研究者要求标注者严格遵循标注原则,比如过滤掉不用图片就能回答的问题、尽可能地过滤掉使用相同图像的问题与不需要专家知识来回答的问题等。最后第三阶段,研究者为了平衡数据集中每一科目题目数量,对问题收集较少的科目专门进行补充。


数据集清洗


为了进一步提高 CMMMU 的数据质量,研究者们遵循严格的数据质量控制协议。首先,每个问题都由至少一位论文作者手工验证。其次,考虑到数据污染问题,他们也过滤掉了在不借助 OCR 的情况下,几个 LLM 也可以回答出的问题。


数据集概览


CMMMU 由 12K 个题目组成,分为少样本开发集、验证集和测试集。少样本开发集包括每个学科 5 个左右的题目,验证集抽样出 900 个题目,测试集包括 11K 题目。题目中的图片包括病理图、乐谱图、电路图、化学结构图等等,共 39 种类型。他们根据逻辑难度而不是智力难度将数据分为简单 (30%)、中等 (58%) 和困难 (12%) 三种难度。更多题目统计信息在表 2 和表 3 中展示。





实验


团队测试了多种主流的中英文双语 LMM 以及几个 LLM 在 CMMMU 上的表现。其中包含了闭源和开源模型。评估过程使用 zero-shot 设置,而不是微调或者 few-shot 设置,以检查模型的原始能力。LLM 还加入了图片 OCR 结果 + text 作为输入的实验。所有的实验都是在 NVIDIA A100 图形处理器上进行的。


主要结果


表 4 展示了实验结果:



一些重要发现包括:


- CMMMU 比 MMMU 更具挑战性,且这是在 MMMU 已经非常具有挑战性的前提下。  


GPT-4V 在中文语境下的准确率仅为 41.7% ,而在英语语境下的准确率为 55.7% 。这表明,现有的跨语言泛化方法甚至对于最先进的闭源 LMM 都不够好。


- 与 MMMU 相比,国内具有代表性的开源模型与 GPT-4V 之间的差距相对较小。  


Qwen-VL-Chat 和 GPT-4V 在 MMMU 上的差异为 13.3% ,而 BLIP2-FLAN-T5-XXL 和 GPT-4V 在 MMMU 上的差异为 21.9% 。令人惊讶的是,Yi-VL-34B 甚至将 CMMMU 上开源双语 LMM 和 GPT-4V 之间的差距缩小到了 7.5% ,这意味着在中文环境下,开源双语 LMM 与 GPT-4V 相当,这在开源社区中是一个有希望的进步。


- 在开源社区中,追求中文专家多模态人工通用智能 (AGI) 的游戏才刚刚开始。  


团队指出,除了最近发布的 Qwen-VL-Chat、 Yi-VL-6B 和 Yi-VL-34B 外,所有来自开源社区的双语 LMM 只能达到与 CMMMU 的frequent choice 相当的精度。


对不同题目难度和题型的分析


- 不同题目类型


Yi-VL 系列、 Qwen-VL-Plus 和 GPT-4V 之间的差异主要还是因为它们回答选择题的能力不同。


不同题目类型的结果如表 5 所示:



- 不同题目难度

结果中值得注意的是,最好的开源 LMM (即 Yi-VL-34B) 和 GPT-4V 在面对中等和困难的问题时存在较大的差距。这进一步有力地证明,开源 LMM 和 GPT-4V 之间的关键差异在于在复杂条件下的计算和推理能力。

不同题目难度的结果如表 6 所示:


错误分析


研究者们仔细分析了 GPT-4V 的错误答案。如下图所示,错误的主要类型有感知错误、缺乏知识、推理错误、拒绝回答和注释错误。分析这些错误类型是理解当前 LMM 的能力和局限性的关键,也可以指导未来设计和培训模型的改进。



- 感知错误 (26%) : 感知错误是 GPT-4V 产生错误示例的主要原因之一。一方面,当模型无法理解图像时,会引入对图像基本感知的偏差,从而导致不正确的响应。另一方面,当模型遇到特定领域知识、隐含意义或不明确的公式中的歧义时,它往往表现出特定领域的知觉错误。在这种情况下,GPT-4V 倾向于更多地依赖基于文本信息的回答 (即问题和选项) ,优先考虑文本信息而不是视觉输入,从而导致理解多模态数据的偏差。


- 推理错误 (26%) : 推理错误是 GPT-4V 产生错误例子的另一个主要因素。在模型正确地感知到图像和文本所传达的意义的情况下,在解决需要复杂逻辑和数学推理的问题时,推理过程中仍会出现错误。通常,这种错误是由于模型较弱的逻辑和数学推理能力造成的。


- 缺乏知识 (22%) : 缺乏专业知识也是 GPT-4V 错误作答的原因之一。由于 CMMMU 是评价 LMM 专家 AGI 的基准,因此需要不同学科和子领域的专家级知识。因此,将专家级知识注入 LMM 也是可以努力的方向之一。


- 拒绝回答 (12%) : 模型拒绝回答也是一种常见的现象。通过分析,他们指出模型拒绝回答问题的几个原因: (1) 模型未能从图像中感知到信息;(2) 是涉及宗教问题或个人现实生活信息的问题,模型会主动回避;(3) 当问题涉及性别和主观因素时,模型避免直接提供答案。


- 其他错误:其余的错误包括文本理解错误 (7%)、标注错误 (2%) 和答案提取错误 (5%)。这些错误是由于复杂的结构跟踪能力、复杂的文本逻辑理解、响应生成的局限性、数据标注的错误以及答案匹配提取中遇到的问题等多种因素造成的。


结论


CMMMU 基准测试标志着高级通用人工智能 (AGI) 开发的重大进展。CMMMU 的设计是为了严格评估最新的大型多模态模型 (LMMs) ,并测试基本的感知技能,复杂的逻辑推理,以及在特定领域的深刻专业知识。该研究通过比较中英双语语境下 LMM 的推理能力,指出其中的差异。这种详尽的评估对于判定模型水平与各个领域经验丰富的专业人员的熟练程度的差距至关重要。




© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
寒假适合孩子看的12部高分学科纪录片,拯救学习没兴趣66、长篇民国小说《永泰里》第十三章 螳螂捕蝉(5)CMU华人18万打造高能机器人,完爆斯坦福炒虾机器人!全自主操作,1小时学会开12种门MiM体验课|随Linda Ginzel教授走入管理心理学的世界未来学校的核心学科,会只剩下两门吗?去年Booking.com诈骗激增!澳人损失超过33.7万澳元Common App 公布25fall美本主文书题目最强的GPT-4V都考不过?基于大学考试的测试基准MMMU诞生了咀外文嚼汉字(298)日本人的 “绝活”(2)“终活”终于找到了适合中国宝宝的黄瓜了!清脆爽口,黄瓜顶流!新一代国产CPU来了!比肩英特尔第10代酷睿四核处理器学费低、录取率高,这8所大学最适合中产留学生!如何高效部署大模型?CMU最新万字综述纵览LLM推理MLSys优化技术2024龙年礼盒包装还可以这样设计!「Dou来跃龙门」——传统习俗与现代设计的碰撞温哥华市议员怒斥:超过120家违反规定的Airbnb仍在运营!旅行的惊喜之“艳遇”早报 | 传Shein去年收入超过300亿美元追上Zara;始祖鸟龙年冲锋衣被炒至1.2万;LV推出首个男士高级珠宝系列吃喝嫖赌抽,五毒中哪一样是最毒?6059 血壮山河之随枣会战 第三章 133V3跨界跨龄围炉,合计超过300岁,竟然没谈崩?!| 来点财经范儿突发!在位超过30年,韦恩·拉皮埃尔宣布辞去全国步枪协会(NRA)主席一职,并面临腐败案件审理!适合中国宝宝体质的周末遛娃:舞龙舞狮、灯展庙会....全美十大最适合退休州榜单出炉!哈佛大学校长宣布辞职!美国联邦政府国债总额超过34万亿美元,历史新高!上季度销冠,比亚迪取代特斯拉最奇葩的“袖珍国”,只有3个足球场大,全国仅32人,地图上都找不到,游客超过3小时必须离开!学校竟是免费打炮地点!33岁女教师色诱高三学生!床战超过30多次!复活节遛娃必去!机器人嘉年华免费玩,炫酷有趣的STEM体验等你来!Costco会员该升黑钻卡吗?外媒:年消费"超过3000"才划算腊八节,先把这“三黑”安排上!拼体质的关键期,这么喝香浓醇厚养身体Adventskalender,更适合德国人体质的盲盒零一万物Yi-VL多模态大模型开源,MMMU、CMMMU两大权威榜单领先MIM体验课|随Linda Ginzel教授走入管理心理学的世界关注 ◇ 列治文Lansdowne重建第一步:新增1000多套住房春天的第一碗糖水,这么做更适合中国胃!鲜甜水灵又养人,我妈都追着要方子中科院,CMU,Meta等联合出品:去除LLM先验对多模态大模型的负面影响带孩子认识“毛周邓孙”,更适合中小学生阅读的名人传记
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。