Redian新闻
>
新测试基准发布,最强开源Llama 3尴尬了

新测试基准发布,最强开源Llama 3尴尬了

其他
梦晨 发自 凹非寺
量子位 | 公众号 QbitAI

如果试题太简单,学霸和学渣都能考90分,拉不开差距……

随着Claude 3、Llama 3甚至之后GPT-5等更强模型发布,业界急需一款更难、更有区分度的基准测试

大模型竞技场背后组织LMSYS推出下一代基准测试Arena-Hard,引起广泛关注。

Llama 3的两个指令微调版本实力到底如何,也有了最新参考。

与之前大家分数都相近的MT Bench相比,Arena-Hard区分度从22.6%提升到87.4%,孰强孰弱一目了然。

Arena-Hard利用竞技场实时人类数据构建,与人类偏好一致率也高达89.1%

除了上面两个指标都达到SOTA之外,还有一个额外的好处:

实时更新的测试数据包含人类新想出的、AI在训练阶段从未见过的提示词,减轻潜在的数据泄露

并且新模型发布后,无需再等待一周左右时间让人类用户参与投票,只需花费25美元快速运行测试管线,即可得到结果。

有网友评价,使用真实用户提示词而不是高中考试来测试,真的很重要。

新基准测试如何运作?

简单来说,通过大模型竞技场20万个用户查询中,挑选500个高质量提示词作为测试集。

首先,挑选过程中确保多样性,也就是测试集应涵盖广泛的现实世界话题。

为了确保这一点,团队采用BERTopic中主题建模管道,首先使用OpenAI的嵌入模型(text-embedding-3-small)转换每个提示,使用 UMAP 降低维度,并使用基于层次结构的模型聚类算法 (HDBSCAN) 来识别聚类,最后使用GPT-4-turbo进行汇总。

同时确保入选的提示词具有高质量,有七个关键指标来衡量:

  • 具体性:提示词是否要求特定的输出?

  • 领域知识:提示词是否涵盖一个或多个特定领域?

  • 复杂性:提示词是否有多层推理、组成部分或变量?

  • 解决问题:提示词是否直接让AI展示主动解决问题的能力?

  • 创造力:提示词是否涉及解决问题的一定程度的创造力?

  • 技术准确性:提示词是否要求响应具有技术准确性?

  • 实际应用:提示词是否与实际应用相关?

使用GPT-3.5-Turbo和GPT-4-Turbo对每个提示进行从 0 到 7 的注释,判断满足多少个条件。然后根据提示的平均得分给每个聚类评分。

高质量的问题通常与有挑战性的话题或任务相关,比如游戏开发或数学证明。

新基准测试准吗?

Arena-Hard目前还有一个弱点:使用GPT-4做裁判更偏好自己的输出。官方也给出了相应提示。

可以看出,最新两个版本的GPT-4分数高过Claude 3 Opus一大截,但在人类投票分数中差距并没有那么明显。

其实关于这一点,最近已经有研究论证,前沿模型都会偏好自己的输出

研究团队还发现,AI天生就可以判断出一段文字是不是自己写的,经过微调后自我识别的能力还能增强,并且自我识别能力与自我偏好线性相关

那么使用Claude 3来打分会使结果产生什么变化?LMSYS也做了相关实验。

首先,Claude系列的分数确实会提高。

但令人惊讶的是,它更喜欢几种开放模型如Mixtral和零一万物Yi,甚至对GPT-3.5的评分都有明显提高。

总体而言,使用Claude 3打分的区分度和与人类结果的一致性都不如GPT-4。

所以也有很多网友建议,使用多个大模型来综合打分

除此之外,团队还做了更多消融实验来验证新基准测试的有效性。

比如在提示词中加入“让答案尽可能详尽”,平均输出长度更高,分数确实会提高。

但把提示词换成“喜欢闲聊”,平均输出长度也有提高,但分数提升就不明显。

此外在实验过程中还有很多有意思的发现。

比如GPT-4来打分非常严格,如果回答中有错误会狠狠扣分;而Claude 3即使识别出小错误也会宽大处理。

对于代码问题,Claude 3倾向于提供简单结构、不依赖外部代码库,能帮助人类学习编程的答案;而GPT-4-Turbo更倾向最实用的答案,不管其教育价值如何。

另外即使设置温度为0,GPT-4-Turbo也可能产生略有不同的判断。

从层次结构可视化的前64个聚类中也可以看出,大模型竞技场用户的提问质量和多样性确实是高。

这里面也许就有你的贡献。

Arena-Hard GitHub:
https://github.com/lm-sys/arena-hard
Arena-Hard HuggingFace:
https://huggingface.co/spaces/lmsys/arena-hard-browser
大模型竞技场:
https://arena.lmsys.org

参考链接:
[1]
https://x.com/lmsysorg/status/1782179997622649330
[2]https://lmsys.org/blog/2024-04-19-arena-hard/

—  —

点这里👇关注我,记得标星哦~

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见 ~ 

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
检测一切!Grounding DINO 1.5:最强开集目标检测模型适应多形态多任务,最强开源机器人学习系统「八爪鱼」诞生被 Sora 抢了风头的谷歌“杀”回来了!谷歌的一群“书呆子”卷出了最强开放模型 Gemma乌克兰反动政府武装今年无条件投降是避免三战和核战的唯一可能最强开源大模型 Llama 3震撼发布!开源模型将追上GPT-4,4000亿参数模型也在路上扎克伯格最新采访:Meta最强开源模型Llama 3凭什么值百亿美金全球最强开源模型Qwen2发布,阿里云为开闭源之争画下休止符You have a big nose是什么意思?理解成“你有个大鼻子”就尴尬了!全球最强开源模型一夜易主,1320亿参数推理飙升2倍!“I'm your man”可不是“我是你的男人”!会错意可就尴尬了~Linux 性能基准测试工具及测试方法命运动力学:命运霍尔效应,越努力,越幸运猪拱尽毁全球最强开源模型一夜易主,1320亿参数推理飙升2倍性能强,成本低,运行快!最强开源大模型出现,超越ChatGPT和Llama!通义千问 2.5 发布,成为中国最强开源大模型扎克伯格的Llama 3号称全球最强开源模型!却写不好这个……阿里云突然发布全球最强开源模型 Qwen2,性能超越美国最强开源模型GPT-4单项仅得7.1分,揭露大模型代码能力三大短板,最新基准测试来了生活琐记:异国他乡的北京味道周鸿祎向李彦宏“开炮”:有些名人胡说八道别被忽悠了;全球最强开源大模型Llama 3发布:最大模型参数将超4000亿丨AI周报最强开源大模型Llama 3来了!4000亿参数狙击GPT-4,训练数据达Llama 2七倍今日arXiv最热NLP大模型论文:揭露大语言模型短板,北京大学提出事件推理测试基准史上最强开源大模型 Llama 3正式发布。。。英伟达开源3400亿巨兽,98%合成数据训出最强开源通用模型!性能对标GPT-4o卷疯了!最强开源大模型Llama 3发布,最大参数4000亿,小扎内心:大模型比元宇宙香多了五绝-朔方春扎克伯格最新2万字访谈:价值百亿美金的“最强开源大模型”Llama3及背后的一切AI早知道|B 站开源轻量级 AI 语言模型;阿里通义Qwen2成最强开源大模型众包新玩法!LLM竞技场诞生基准测试,严格分离学渣学霸最强开源大模型深夜炸场! Llama 3 王者归来,直逼 GPT-4, 马斯克点赞 | 附体验链接华为 Pura 70 系列上架即售罄/Meta 发布全球最强开源大模型/理想汽车 L6 发布张核子回应张姗姗身份;雷军直播回应造车亏损;Meta发布最强开源大模型Llama 3;阿里拍卖回应前员工指控高管职场霸凌|邦早报百川新模型冲顶中文测试基准!首款AI助手“百小应”同时发布,“最懂搜索”阿里云发布最强开源大模型Qwen2,干翻Llama 3,比闭源模型还强
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。