Redian新闻
>
SuperBench大模型综合能力评测报告

SuperBench大模型综合能力评测报告

公众号新闻

在2023年的“百模大战”中,众多实践者推出了各类模型,这些模型有的是原创的,有的是针对开源模型进行微调的;有些是通用的,有些则是行业特定的。如何能合理地评价这些模型的能力,成为关键问题。


尽管国内外存在多个模型能力评测榜单,但它们的质量参差不齐,排名差异显著,这主要是因为评测数据和测试方法尚不成熟和科学。我们认为,好的评测方法应当具备开放性、动态性、科学性和权威性。


为提供客观、科学的评测标准清华大学基础模型研究中心联合中关村实验室研制了SuperBench大模型综合能力评测框架,旨在推动大模型技术、应用和生态的健康发展。


SuperBench介绍请查看以往推送:2024年,如何避免「国内百模,家家第一」乱象?


近期,我们发布了2024年3月的《SuperBench大模型综合能力评测报告》。在此评测中,我们选定了14个海内外具有代表性的模型进行测试。对于闭源模型,我们选取API和网页两种调用模式中得分较高的一种进行评测。



根据我们的评测结果,我们得出以下几个主要结论:


● 整体来说,GPT-4系列模型Claude-3等国外模型在多个能力上依然处于领先地位国内头部大模型GLM-4和文心一言4.0表现亮眼,与国际一流模型水平接近,且差距已经逐渐缩小


●  国外大模型中,GPT-4系列模型表现稳定,Claude-3也展现了较强的综合实力,在语义理解和作为智能体两项能力评测中更是获得了榜首,跻身国际一流模型。


●  国内大模型中,GLM-4和文心一言4.0在本次评测中表现最好,为国内头部模型;通义千问2.1、Abab6、moonshot网页版以及qwen1.5-72b-chat紧随其后,在部分能力评测中亦有不俗表现;但是国内大模型对比国际一流模型在代码编写、作为智能体两个能力上依然有较大差距,国内模型仍需努力。


大模型能力迁移&SuperBench

自大语言模型诞生之初,评测便成为大模型研究中不可或缺的一部分。随着大模型研究的发展,对其性能重点的研究也在不断迁移。根据我们的研究,大模型能力评测大概经历如下5个阶段:


2018年-2021年:语义评测阶段

早期的语言模型主要关注自然语言的理解任务 (e.g. 分词、词性标注、句法分析、信息抽取),相关评测主要考察语言模型对自然语言的语义理解能力。代表工作:BERT、 GPT、T5等。


2021年-2023年:代码评测阶段

随着语言模型能力的增强,更具应用价值的代码模型逐渐出现。研究人员发现,基于代码生成任务训练的模型在测试中展现出更强的逻辑推理能力,代码模型成为研究热点。代表工作:Codex、CodeLLaMa、CodeGeeX等。


2022年-2023年:对齐评测阶段

随着大模型在各领域的广泛应用,研究人员发现续写式的训练方式与指令式的应用方式之间存在差异,理解人类指令、对齐人类偏好逐渐成为大模型训练优化的关键目标之一。对齐好的模型能够准确理解并响应用户的意图,为大模型的广泛应用奠定了基础。代表工作:InstructGPT、ChatGPT、GPT4、ChatGLM等。


2023年-2024年:智能体评测阶段

基于指令遵从和偏好对齐的能力,大模型作为智能中枢对复杂任务进行拆解、规划、决策和执行的能力逐渐被发掘。大模型作为智能体解决实际问题也被视为迈向通用人工智能(AGI)的重要方向。代表工作:AutoGPT、AutoGen等。


2023年-future:安全评测阶段

随着模型能力的提升,对模型安全性和价值观的评估、监管与强化逐渐成为研究人员关注的重点。加强对潜在风险的研判,确保大模型的可控、可靠和可信,是未来“AI 可持续发展”的关键问题。


因此,为了全面地评估大模型的各项能力,SuperBench 评测体系了语义、代码、对齐、智能体和安全等五个评测大类28个子类


评测结果

PART/语义评测

ExtremeGLUE 是一个包含72个中英双语传统数据集的高难度集合,旨在为语言模型提供更严格的评测标准,采用零样本 CoT 评测方式,并根据特定要求对模型输出进行评分。我们首先使用了超过 20 种语言模型进行初步测试,包括了 GPT-4、Claude、Vicuna、WizardLM 和 ChatGLM等。我们基于所有模型的综合表现,决定了每个分类中挑选出难度最大的10%~20%数据,将它们组合为"高难度传统数据集"。


评测方法&流程

●  评测方式:收集了72个中英双语传统数据集,提取其中高难度的题目组成4个维度的评测数据集,采取零样本 CoT 评测方式,各维度得分计算方式为回答正确的题目数所占百分比,最终总分取各维度的平均值

●  评测流程:根据不同题目的形式和要求,对于模型的零样本 CoT 生成的结果进行评分。


整体表现:

在语义理解能力评测中,各模型形成了三个梯队,70分档为第一梯队,包括Claude-3GLM-4、文心一言4.0以及GPT-4系列模型;其中Claude-3得分为76.7,位居第一;国内模型GLM-4文心一言4.0则超过GPT-4系列模型位居第二和第三位,但是和Claude-3有3分差距。


分类表现:

●  知识-常识:Claude-3以79.8分领跑,国内模型GLM-4表现亮眼,超过GPT-4网页版位居第二;文心一言4.0表现不佳,距离榜首Claude-3有12.7分差距。

●  知识-科学:Claude-3依然领先,并且是唯一一个80分以上模型;文心一言4.0、GPT-4系列模型以及GLM-4模型均在75分以上,为第一梯队模型。

●  数学:Claude-3文心一言4.0并列第一,得65.5分,GLM-4领先GPT-4系列模型位列第三,其他模型得分在55分附近较为集中,当前大模型在数学能力上仍有较大提升空间。

●  阅读理解:各分数段分布相对较为平均,文心一言4.0超过GPT-4 Turbo、Claude-3以及GLM-4拿下榜首。


PART/2 代码评测

NaturalCodeBench(NCB)是一个评估模型代码能力的基准测试,传统的代码能力评测数据集主要考察模型在数据结构与算法方面的解题能力,而NCB数据集侧重考察模型在真实编程应用场景中写出正确可用代码的能力。


所有问题都从用户在线上服务中的提问筛选得来,问题的风格和格式更加多样,涵盖数据库、前端开发、算法、数据科学、操作系统、人工智能、软件工程等七个领域的问题,可以简单分为算法类和功能需求类两类。题目包含java和python两类编程语言,以及中文、英文两种问题语言。每个问题都对应10个人类撰写矫正的测试样例,9个用于测试生成代码的功能正确性,剩下1个用于代码对齐。


评测方法&流程

●  评测方式:运行模型生成的函数,将输出结果与准备好的测例结果进行比对进行打分。将输出结果与准备好的测例结果进行比对进行打分,最终计算生成代码的一次通过率pass@1

●  评测流程:给定问题、单元测试代码、以及测例,模型首先根据问题生成目标函数;运行生成的目标函数,以测例中的输入作为参数得到函数运行输出,与测例中的标准输出进行比对,输出匹配得分,输出不匹配或函数运行错误均不得分。

整体表现:

在代码编写能力评测中,国内模型与国际一流模型之间仍有明显差距,GPT-4系列模型Claude-3模型在代码通过率上明显领先,国内模型中GLM-4文心一言4.0讯飞星火3.5表现突出,综合得分达到40分以上;然而,即使是表现最好的模型在代码的一次通过率上仍只有50%左右,代码生成任务对目前的大模型来说仍是一大挑战。


分类表现:

在Python、Java、中文、英文四个维度的数据集中GPT-4系列模包揽头名,体现出强大而全面的代码能力,除Claude-3外其余模型差距明显;

●  英文代码指令:GPT-4 TurboClaude-3在Python和Java问题上分别高出6.8分和1.5分,比GLM-4在Python和Java问题上分别高出14.2分和5.1分,国内模型与国际模型在英文代码指令上差距比较明显;

●  中文代码指令:GPT-4 TurboClaude-3在Python上高出3.9分,在Java上低2.3分,差距不大。GPT-4 TurboGLM-4在Python和Java问题上分别高出5.4分和2.8分,国内模型在中文编码能力上与国际一流模型仍存在一定差距。


PART/3 对齐评测

AlignBench旨在全面评测大模型在中文领域与人类意图的对齐度,通过模型打分评测回答质量,衡量模型的指令遵循和有用性。它包括8个维度,如基本任务和专业能力,使用真实高难度问题,并有高质量参考答案。优秀表现要求模型具有全面能力、指令理解和生成有帮助的答案。


“中文推理”维度重点考察了大模型在中文为基础的数学计算、逻辑推理方面的表现。这一部分主要由从真实用户提问中获取并撰写标准答案,涉及多个细粒度领域的评估:

●  数学计算上,囊括了初等数学、高等数学和日常计算等方面的计算和证明。

●  逻辑推理上,则包括了常见的演绎推理、常识推理、数理逻辑、脑筋急转弯等问题,充分地考察了模型在需要多步推理和常见推理方法的场景下的表现。


“中文语言”部分着重考察大模型在中文文字语言任务上的通用表现,具体包括六个不同的方向:基本任务、中文理解、综合问答、文本写作、角色扮演、专业能力。这些任务中的数据大多从真实用户提问中获取,并由专业的标注人员进行答案撰写与矫正,从多个维度充分地反映了大模型在文本应用方面的表现水平。具体来说:

●  基本任务考察了在常规NLP任务场景下,模型泛化到用户指令的能力;

●  中文理解上,着重强调了模型对于中华民族传统文化和汉字结构渊源的理解;

●  综合问答则关注模型回答一般性开放问题时的表现;

●  文本写作则揭示了模型在文字工作者工作中的表现水平;

●  角色扮演是一类新兴的任务,考察模型在用户指令下服从用户人设要求进行对话的能力;

●  专业能力则研究了大模型在专业知识领域的掌握程度和可靠性。


评测方法&流程

●  评测方式:通过强模型(如GPT-4)打分评测回答质量,衡量模型的指令遵循能力和有用性。打分维度包括事实正确性、满足用户需求、清晰度、完备性、丰富度等多项,且不同任务类型下打分维度不完全相同,并基于此给出综合得分作为回答的最终分数。

●  评测流程:模型根据问题生成答案、GPT-4 根据生成的答案和测试集提供的参考答案进行详细的分析、评测和打分。



整体表现:

在人类对齐能力评测中,GPT-4 网页版占据榜首,文心一言4.0GPT-4 Turbo同分(7.74)紧随其后,国内模型中GLM-4同样表现优异,超越Claude-3,位列第四,通义千问2.1略低于Claude-3,排名第六,同为第一梯队大模型。


分类表现:

中文推理整体分数明显低于中文语言,当下大模型推理能力整体有待加强:

●  中文推理:GPT-4系列模型表现最好,略高于国内模型文心一言4.0,并且和其他模型拉开明显差距;

●  中文语言:国内模型包揽了前四名,分别是KimiChat 网页版(8.05分)、通义千问2.1(7.99分)、GLM-4(7.98分)、文心一言4.0(7.91分),超过GPT-4系列模型和Claude-3等国际一流模型。


各分类细拆分析:

中文推理:

●  数学计算:GPT-4系列模型包揽前两名,国内模型文心一言-4.0通义千问2.1分数超过Claude-3,但与GPT-4系列模型仍有一定差距。

●  逻辑推理:7分以上为第一梯队,由国内模型文心一言4.0领跑,同在第一梯队的还有GPT-4系列模型Claude-3GLM4Abab6


中文语言:

●  基本任务:GLM-4拿下榜首,通义千问2.1Claude-3GPT-4 网页版占据二到四位,国内其他大模型中文心一言4.0KimiChat 网页版也表现较好,超过了GPT-4 Turbo

●  中文理解:国内模型整体表现较好,包揽了前四名,文心一言4.0领先优势明显,领先第二名GLM-4 0.41分;国外模型中,Claude-3表现尚可,排在第五位,但GPT-4系列模型表现较差,排在中下游,并且和第一名分差超过1分。

●  综合问答:各大模型均表现较好,超过8分的模型达到了6家,GPT-4 网页版KimiChat 网页版拿下最高分,GLM-4Claude-3分数相同,与榜首分数接近,并列第三。

●  文本写作:KimiChat 网页版表现最好,同时也是唯一一个8分以上的模型,GPT-4 Turbo通义千问2.1分列二、三位。

●  角色扮演:国内模型Abab6通义千问2.1KimiChat 网页版包揽前三名,且均在8分以上,超过GPT-4系列模型Claude-3等国际一流模型。

●  专业能力:GPT-4 Turbo占据了首位,KimiChat 网页版超过GPT-4 网页版拿下第二名,国内其他模型中,GLM-4通义千问2.1同样表现不俗,并列排名第四。


PART/4 智能体评测

AgentBench一个评估语言模型在操作系统、游戏和网页等多种实际环境中作为智能体性能的综合基准测试工具包


代码环境:该部分关注LLMs在协助人类与计计算机代码接口互动方面的潜在应用。LLMs以其出色的编码能力和推理能力,有望成为强大的智能代理,协助人们更有效地与计算机界面进行互动。为了评估LLMs在这方面的表现,我们引入了三个代表性的环境,这些环境侧重于编码和推理能力。这些环境提供了实际的任务和挑战,测试LLMs在处理各种计算机界面和代码相关任务时的能力。


游戏环境:游戏环境是AgentBench的一部分,旨在评估LLMs在游戏场景中的表现。在游戏中,通常需要智能体具备强大的策略设计、遵循指令和推理能力。与编码环境不同,游戏环境中的任务不要求对编码具备专业知识,但更需要对常识和世界知识的综合把握。这些任务挑战LLMs在常识推理和策略制定方面的能力。


网络环境:网络环境是人们与现实世界互动的主要界面,因此在复杂的网络环境中评估智能体的行为对其发展至关重要。在这里,我们使用两个现有的网络浏览数据集,对LLMs进行实际评估。这些环境旨在挑战LLMs在网络界面操作和信息检索方面的能力。


评测方法&流程

●  评测方式:模型和预先设定好的环境进行多轮交互以完成各个特定的任务,情景猜谜子类会使用GPT-3.5-Turbo对最终答案进行评分,其余子类的评分方式根据确定的规则对模型完成任务的情况进行打分。

●  评测流程:模型与模拟环境进行交互,之后对模型给出的结果采用规则评分或GPT-3.5-Turbo评分。

●  打分规则:由于不同子任务的分数分布不同,直接按平均分计算总分受极值的影响较为严重,因此需要对各子任务的分数进行归一化处理。如下表所示,各个子任务对应的 “Weight(-1)”的值即是归一化的权重,这个值为在 Agentbench 上最初测试的模型在该子任务上得分的平均值。计算总分时将各个子任务的分数除以 Weight(-1) 后求平均值即可。根据该计算方式,具有平均能力的模型最终得到的总分应为 1。


SR:成功率

#Avg.Turn:解决单一问题所需的平均交互回合数

#Dev、#Test:开发集和测试集单个模型的预期总交互轮数

Weight⁻¹:各单项分在计算总分的时候的权重的倒数


整体表现:

在作为智能体能力评测中,国内模型整体明显落后于国际一流模型;Claude-3GPT-4系列模占据了前三甲,GLM-4在国内模型中表现最好,但与榜首的Claude-3仍有较大差距;国内外大模型在本能力下均表现欠佳,主要原因是智能体对模型要求远高于其他任务,现有的绝大部分模型还不具有很强的智能体能力。


分类表现:

除网上购物被国内模型GLM-4拿到头名外,其他分类下,榜首均被Claude-3GPT-4系列模型占据,体现出相对强大的作为智能体能力,国内模型仍需不断提升。

●  具身智能(Alfworld)前三甲均被Claude-3GPT-4系列模型包揽,和国内模型差距最大。

●  在数据库(DB)和知识图谱(KG)两个维度下,国内模型GLM-4均进入top3,但是与前两名仍有一定差距。


PART/5 安全评测

SafetyBench是首个全面的通过单选题的方式评估大型语言模型安全性的测试基准。包含攻击冒犯、偏见歧视、身体健康、心理健康、违法活动、伦理道德、隐私财产等。


评测方法&流程

●  评测方式:每个维度收集上千个多项选择题,通过模型的选择测试对各个安全维度的理解和掌握能力进行考察。评测时采用few-shot生成方式,从生成结果中抽取答案与真实答案比较,模型各维度得分为回答正确的题目所占百分比,最终总分取各个维度得分的平均值。针对拒答现象,将分别计算拒答分数和非拒答分数,前者将拒答题目视为回答错误,后者将拒答题目排除出题库。

  评测流程:从模型针对指定问题few-shot的生成结果中提取答案,与真实答案比较。



整体表现:

在安全能力评测中,国内模型文心一言4.0表现亮眼,力压国际一流模型GPT-4系列模型Claude-3拿下最高分(89.1分),在国内其他模型中,GLM-4和Claude-3同分,并列第四。


分类表现:

在违法活动、身体健康、攻击冒犯、心理健康、隐私财产这五个分类下,各模型各有胜负,但是在伦理道德和偏见歧视上,各个模型分差较大,并保持了和总分较为一致的偏序关系。

●  伦理道德:文心一言4.0力压Claude-3位列第一,国内大模型GLM-4同样表现亮眼,超过GPT-4 Turbo位列前三甲。

●  偏见歧视:文心一言4.0继续排名榜首,领先GPT-4系列模型,GLM-4紧随其后,同为第一梯队模型。

点击原文查看附件:SuperBench大模型综合能力评测报告




点击下方关注我们


微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
咋了?大温Winners和Superstore接连失火 浓烟滚滚2024年第1季度中国大模型季度监测报告:开启智能新篇章[评测]ASUS GeForce RTX 4080 Super 16GB GDDR6X Noctua OC Edition 评测恭喜!学员已收到Bank of America 2025暑期Superday(终面)邀请旧金山艺术宫(Palace of Fine Arts),环境很美大模型综述出书了伦敦墙西地块改造成大型综合体,又一座地标建筑[电脑] 便携ITX小钢炮,七彩虹 B760I + 索泰 4080 SUPER + 九州风神 CH160 装机分享大模型的“瘦身”革命:巨头逐鹿轻量化大模型 | 大模型一周大事和爱美丽游750米畅销全球的跑鞋!亚瑟士SUPERBLAST,轻、软、护脚不伤膝~二月长周末在铜山Tucker峰[评测]ASUS GeForce RTX 4060 LP BRK OC Edition 8GB GDDR6 评测全球140+大模型全方位评测结果出炉,智源评测体系发布国内百模谁第一?清华14大LLM最新评测报告出炉,GLM-4、文心4.0站在第一梯队[评测]Colorful iGame GeForce RTX 4070 Super 雾山五行定制版 OC 12GB 评测谁才是最强的?清华给海内外知名大模型做了场综合能力评测清华大学:superBench大模型综合能力评测报告(2024年3月)春招丨中核集团2025届春招提前批开启!全国有岗,大型综合国企,七险二金,十几类休假+各种补贴China Faces Another Blisteringly Hot Summer, Experts Warn大模型如何用于游戏?游戏玩家代理与大模型综述:方法、应用与挑战恭喜!学员已收到Bank of America 25暑期Superday邀请今日arXiv最热大模型论文:大模型都能怎么用?中南大学最新综述:大模型时代的自然语言处理dentsu电通:2024全球广告支出预测报告-中国市场畅销全球的跑鞋!亚瑟士SUPERBLAST,轻、软、护脚不伤膝[电脑] 紧凑三分舱中塔——七彩虹 Z790 龙年限定+索泰 4080SUPER+联力 SUP01 装机展示[评测]ASUS ProArt GeForce RTX 4080 Super OC Edition 16GB GDDR6X 评测春招丨中核资本本部2024年校园招聘正式启动!12类岗位任你选择,大型综合国企,七险二金,十几类休假+各种补贴浓人,nèng死淡人China’s ‘Supernanny’ Stirs Controversy With Ultra-Harsh Methods便捷快速的国内手机银行 春节庙会 (多图)今日arXiv最热大模型论文:上海AI lab发布MathBench,GPT-4o的数学能力有多强?手慢无!被问了N次的宝藏夏令营!2024 Superior Child让孩子变身运动小达人!格格不入[电脑] 追风者 XT523 Ultra+华硕 ROG Z790 DARK HERO+华硕 猛禽 4080SUPER 装机展示!
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。