Redian新闻
>
UC伯克利发布大语言模型排行榜!Vicuna夺冠,清华ChatGLM进前5

UC伯克利发布大语言模型排行榜!Vicuna夺冠,清华ChatGLM进前5

公众号新闻

万万没想到,现在大语言模型们也要像王者荣耀/LoL/Dota这些游戏里的玩家一样打排位赛了!据说,那些闭源模型们很快也会被拉出来溜溜。

最近,来自LMSYS Org(UC伯克利主导)的研究人员又搞了个大新闻——大语言模型版排位赛!

顾名思义,「LLM排位赛」就是让一群大语言模型随机进行battle,并根据它们的Elo得分进行排名。

然后,我们就能一眼看出,某个聊天机器人到底是「嘴强王者」还是「最强王者」。

划重点:团队还计划把国内和国外的这些「闭源」模型都搞进来,是骡子是马溜溜就知道了!(GPT-3.5现在就已经在匿名竞技场里了)

匿名聊天机器人竞技场长下面这样:

很明显,模型B回答正确,拿下这局;而模型A连题都没读懂……

项目地址:https://arena.lmsys.org/

在当前的排行榜中,130亿参数的Vicuna以1169分稳居第一,同样130亿参数的Koala位列第二,LAION的Open Assistant排在第三。

清华提出的ChatGLM,虽然只有60亿参数,但依然冲进了前五,只比130亿参数的Alpaca落后了23分。

相比之下,Meta原版的LLaMa只排到了第八(倒数第二),而Stability AI的StableLM则获得了唯一的800+分,排名倒数第一。

团队表示,之后不仅会定期更新排位赛榜单,而且还会优化算法和机制,并根据不同的任务类型提供更加细化的排名。

目前,所有的评估代码以及数据分析均已公布。

拉着LLM打排位

在这次的评估中,团队选择了目前比较出名的9个开源聊天机器人。

每次1v1对战,系统都会随机拉两个上场PK。用户则需要同时和这两个机器人聊天,然后决定哪个聊天机器人聊的更好。

可以看到,页面下面有4个选项,左边(A)更好,右边(B)更好,一样好,或者都很差。

当用户提交投票之后,系统就会显示模型的名称。这时,用户可以继续聊天,或者选择新的模型重新开启一轮对战。

不过,团队在分析时,只会采用模型是匿名时的投票结果。在经过差不多一周的数据收集之后,团队共收获了4.7k个有效的匿名投票。

在开始之前,团队先根据基准测试的结果,掌握了各个模型可能的排名。

根据这个排名,团队会让模型去优先选择更合适的对手。

然后,再通过均匀采样,来获得对排名的更好总体覆盖。

在排位赛结束时,团队又引入了一种新模型fastchat-t5-3b。

以上这些操作最终导致了非均匀的模型频率。

每个模型组合的对战次数

从统计数据来看,大多数用户所用的都是英语,中文排在第二位。

排名前15的语言的对战次数

评估LLM,真的很难

自从ChatGPT爆火之后,经过指令跟随微调的开源大语言模型如雨后春笋一般大量涌现。可以说,几乎每周都有新的开源LLM在发布。

但问题是,评估这些大语言模型非常难。

具体来说,目前用来衡量一个模型好不好的东西基本都是基于一些学术的benchmark,比如在一个某个NLP任务上构建一个测试数据集,然后看测试数据集上准确率多少。

然而,这些学术benchmark(如HELM)在大模型和聊天机器人上就不好用了。其原因在于:

1. 由于评判聊天机器人聊得好不好这件事是非常主观的,因此现有的方法很难对其进行衡量。

2. 这些大模型在训练的时候就几乎把整个互联网的数据都扫了一个遍,因此很难保证测试用的数据集没有被看到过。甚至更进一步,用测试集直接对模型进行「特训」,如此一来表现必然更好。

3. 理论上我们可以和聊天机器人聊任何事情,但很多话题或者任务在现存的benchmark里面根本就不存在。

那如果不想采用这些benchmark的话,其实还有一条路可以走——花钱请人来给模型打分。

实际上,OpenAI就是这么搞的。但是这个方法明显很慢,而且更重要的是,太贵了……

为了解决这个棘手的问题,来自UC伯克利、UCSD、CMU的团队发明了一种既好玩又实用的全新机制——聊天机器人竞技场(Chatbot Arena)。

相比而言,基于对战的基准系统具有以下优势:

  • 可扩展性(Scalability)

当不能为所有潜在的模型对收集足够的数据时,系统应能扩展到尽可能多的模型。

  • 增量性(Incrementality)

系统应能够使用相对较少的试验次数评估新模型。

  • 唯一顺序(Unique order)

系统应为所有模型提供唯一顺序。给定任意两个模型,我们应该能够判断哪个排名更高或它们是否并列。

Elo评分系统

Elo等级分制度(Elo rating system)是一种计算玩家相对技能水平的方法,广泛应用在竞技游戏和各类运动当中。其中,Elo评分越高,那么就说明这个玩家越厉害。

比如英雄联盟、Dota 2以及吃鸡等等,系统给玩家进行排名的就是这个机制。

举个例子,当你在英雄联盟里面打了很多场排位赛后,就会出现一个隐藏分。这个隐藏分不仅决定了你的段位,也决定了你打排位时碰到的对手基本也是类似水平的。

而且,这个Elo评分的数值是绝对的。也就是说,当未来加入新的聊天机器人时,我们依然可以直接通过Elo的评分来判断哪个聊天机器人更厉害。

具体来说,如果玩家A的评分为Ra,玩家B的评分为Rb,玩家A获胜概率的精确公式(使用以10为底的logistic曲线)为:

然后,玩家的评分会在每场对战后线性更新。

假设玩家A(评分为Ra)预计获得Ea分,但实际获得Sa分。更新该玩家评分的公式为:

1v1胜率

此外,作者还展示了排位赛中每个模型的对战胜率以及使用Elo评分估算的预测对战胜率。

结果显示,Elo评分确实可以相对准确地进行预测

所有非平局A对B战斗中模型A胜利的比例

在A对B战斗中,使用Elo评分预测的模型A的胜率

作者介绍

「聊天机器人竞技场」由前小羊驼作者机构LMSYS Org发布。

该机构由UC伯克利博士Lianmin Zheng和UCSD准教授Hao Zhang创立,目标是通过共同开发开放的数据集、模型、系统和评估工具,使每个人都能获得大型模型。

Lianmin Zheng

Lianmin Zheng是加州大学伯克利分校EECS系的博士生,他的研究兴趣包括机器学习系统、编译器和分布式系统。

Hao Zhang

Hao Zhang目前是加州大学伯克利分校的博士后研究员。他将于2023年秋季开始在加州大学圣地亚哥分校Halıcıoğlu数据科学研究所和计算机系担任助理教授。

参考资料:

https://lmsys.org/blog/2023-05-03-arena/

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
ChatGPT平替「小羊驼」Mac可跑!2行代码单GPU,UC伯克利再发70亿参数开源模型Stability AI发布语言模型StableLM,能力不及ChatGPT,但胜在开源深度学习三巨头之一 Yann LeCun:大语言模型带不来 AGIGoogle 本周或发布新大语言模型/iPhone 16 Pro 或采用固态按键/百度旗下小度将发布智能手机【健康】四大血型排行榜:B型血平均年龄77岁,第一名令人意外...不对齐,反而性能爆表?130亿模型碾压650亿,Hugging Face大模型排行榜发布LeCun再爆金句:ChatGPT?连条狗都比不上!语言模型喂出来的而已以 LLM 为核心 LLM@Core:程序员的大语言模型技术指南首款人类粪便制成的口服药获美国FDA批准;谷歌本周将发布最新大语言模型PaLM 2|环球科学要闻斯坦福发布LLM排行榜AlpacaEval,微软WizardLM登顶开源模型第一GPT-4发布后,其他大模型怎么办?Yann LeCun:增强语言模型或许是条路对标GPT-4!谷歌发布大语言模型PaLM 2,可在手机运行,云、搜索、电邮等一网打尽!重磅!清华ChatGLM2开源!中文榜居首,碾压GPT-4!重训「羊驼」大模型并彻底开放商用,UC伯克利博士生:Meta不愿做就自己做BLIP-2、InstructBLIP稳居前三!十二大模型,十六份榜单,全面测评「多模态大语言模型」他发明苹果电脑,冒充美国国务卿,出演生活大爆炸…昨天,72岁的他二度受邀在UC伯克利发表毕业演讲!(附视频&演讲稿)王兴投资王慧文 ChatGPT 项目;谷歌发布全球最大视觉语言模型 PaLM-E;自如考虑赴港上市 | 极客早知道UC伯克利LLM排行榜首次重磅更新!GPT-4稳居榜首,全新330亿参数「小羊驼」位列开源第一巴黎市长将重修Châtelet 广场以方便行人【城事】巴黎市长将重修Châtelet 广场以方便行人成本不到100美元!UC伯克利再开源类ChatGPT模型「考拉」:数据量大没有用,高质量才是王道Colleges Offering a Philosophy Major一行字实现3D换脸!UC伯克利提出「Chat-NeRF」,说句话完成大片级渲染用GPT-4实现可控文本图像生成,UC伯克利&微软提出新框架Control-GPT小心A型血的人!四大血型排行榜:B型血平均年龄77岁,第一名令人意外...南澳散记 (增订本) :第二十四章:吃蟹杂谈Colleges Offering a Religious Studies Major美国宾州葛底斯堡国家军事公园,田野风光谁能强迫中国青年生小孩?单个GPU就能跑!UC伯克利领头,130亿参数「小羊驼」权重公布首个大规模使用工具的大模型来了:伯克利发布Gorilla重磅!最新QS世界大学排名发布!伯克利进前10,北大比清华排名高谷歌PaLM 2弱爆:LLM大排名屈居第六,准中文倒数第二|UC伯克利排行榜新鲜榜出炉性能超越GPT-4!谷歌推出大语言模型PaLM 2,全面升级Bard反击ChatGPT|环球科学要闻ChatGPT上下文碾压64K开源模型!UC伯克利:开源模型能力严重「虚标」|最新硬核评测曝光
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。