Redian新闻
>
斯坦福最新LLM排行榜发布!自家Alpaca垫底,华人团队WizardLM开源第一,GPT-4、Claude稳居前二

斯坦福最新LLM排行榜发布!自家Alpaca垫底,华人团队WizardLM开源第一,GPT-4、Claude稳居前二

公众号新闻



  新智元报道  

编辑:好困
【新智元导读】最近,来自斯坦福的研究人员提出一个基于大语言模型的全新自动评估系统——AlpacaEval。不仅速度快、成本低,而且还经过了2万个人类标注的验证。

前段时间,UC伯克利主导的「LLM排位赛」备受圈内关注。
除了各类开源模型外,还有GPT-4、PaLM 2等众多「闭源」模型,甚至还开设了一个「准中文」排行榜。
最近,来自斯坦福的团队,也发布了一款LLM自动评测系统——AlpacaEval,以及对应的AlpacaEval Leaderboard。
在斯坦福的这个排行榜中,GPT-4依然以绝对领先的优势夺得第一,胜率超过了95%。
紧随其后的是,胜率都在80%以上的Claude和ChatGPT。其中,Claude以不到3%的优势拿下第二,而ChatGPT则位列第三。
此次获得第四名的,则是一位排位赛新人——微软华人团队发布的WizardLM。
UC伯克利的Vicuna发挥依然稳定,凭借着超过70%的胜率排在第六。
相比之下,斯坦福自己的Alpaca却只排到了第16……
其实,团队自从原始的Alpaca推出以来,已经做了不小的改进——胜率从26%提升到了44%,但依然距离领奖台很远。
对此,其中一位作者有些无奈地表示:「是不是我们哪里做的不对?」

AlpacaEval:易使用、速度快、成本低、经过人类标注验证


AlpacaEval把AlpacaFarm和Aviary进行了结合。

一方面使用与AlpacaFarm相同的代码(缓存/随机排列/超参数),另一方面则使用类似于Aviary的排序提示。
与此同时,还对Aviary的提示进行了修改,从而减少对较长输出的偏见。
团队表示,AlpacaEval有着拔群的效果:
  • 与人类多数票的一致性,高于单个人类标注者
  • 胜率与人类标注高度相关(0.94)
  • 相比于lmsys评测器,有显著提升(从63%提高到69%)
  • 胜率
模型的输出在每个指令上优于text-davinci-003(即参考文本)的比例。
具体而言,首先从AlpacaEval数据集中收集了期望模型在每个指令上的输出对,并将每个输出与相同指令下的参考模型(text-davinci-003)的输出进行配对。
随后,把这些输出同时喂给自动评测器,让它去判断哪一个更好(也就是评测器的偏好)。
最后,将数据集中所有指令的偏好进行平均,从而得到模型相对于text-davinci-003的胜率。如果两个模型打平,那么就算半个偏好。

论文地址:https://arxiv.org/pdf/2305.14387.pdf
  • 标准误差
胜率的标准误差(通过N-1进行归一化),即不同指令上的平均偏好。

不同评测器的对比

团队通过与收集的2.5K个人工标注(每个指令平均包含4个人工标注)进行比较,评测了AlpacaEval数据集上的不同自动标注程序。
下面就是斯坦福的评测器(alpaca_eval_gpt4)、之前的自动评测器(alpaca_farm_greedy_gpt4、aviary_gpt4、lmsys_gpt4)、人类(humans)以及不同基准模型(gpt4、claude、text_davinci_003、guanaco_33b、chatgpt)的测试结果。
  • 人类一致性:标注者与交叉标注集中人类多数票之间的一致性
为了估计单个人类标注者(表格中的humans行)与多数人类之间的一致性,首先需要选取一个标注,并计算其在预测其他3个标注的众数时的准确率。
然后,将所有4个标注和650个指令上的准确率求平均,得到人类一致性,即计算预期的(对于人类和样本)留一法一致性。如果众数不唯一,我们随机选择其中一个众数。
对于自动标注器,我们进行完全相同的计算,以便最终的结果可以进行比较。
  • 价格:每1000个标注的平均价格
对于人类来说,这是支付众包工人进行这些标注的价格(每小时18美元)。如果价格取决于用于计算标注的机器(例如Guanaco),则将其留空。
  • 时间:计算1000个标注所需的平均时间
对于人类来说,这是每个众包工人标注1000个示例所需时间的中位数。
对于自动标注器,这是运行标注所需的平均时间。值得注意的是,这可能取决于不同用户的API限制以及集群正在处理的请求数量。
最后,为了进一步改善自动评测流程,团队发布了:
  • 一个易于定制的流程
  • 模型和自动评测器的排行榜
  • 分析自动评测器的工具包
  • 18K人类标注
  • 2K人类交叉标注

局限性


虽然AlpacaEval提供了一个有用的比较模型,但它并不是一个全面的的模型能力评测系统,其局限性可以概括为以下三点:
  • 指令比较简单
  • 评分时可能更偏向于风格而非事实
  • 没有衡量模型可能造成的危害
参考资料:
https://tatsu-lab.github.io/alpaca_eval/




微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
告春鸟、春告鸟云原生大起底,GOTC 2023 Cloud Native Summit来了球友的小花园GPT-4,Llama2,ChatGLM2,PaLM2共聚一堂 | LLM Day @KDD 202311个LLM一起上,性能爆炸提升!AI2联合USC开源LLM-Blender集成学习框架:先排序再融合|ACL 2023【𝐂𝐚𝐥𝐧𝐢𝐊𝐞𝐚𝐧双皮奶无痕内裤】49元三条!巨巨巨好穿 !!简直就是辣妹顶配,食品级冰箱收纳盒【一日团】斯坦福最新研究警告:别太迷信大模型涌现能力,那是度量选择的结果贤合庄北上广杭全关;2023城市排行榜发布;屈臣氏今年将开300家店;菜鸟在北上广启动夜派;星巴克新任CEO首度访华|联商头条报志愿重要参考!2023中国大学学科排行榜发布!UC伯克利LLM排行榜首次重磅更新!GPT-4稳居榜首,全新330亿参数「小羊驼」位列开源第一胡润百学全球高中排行榜发布;北京一零一中成立“丘成桐少年班”GPT-4、ChatGLM2、Llama2、PaLM2在KDD LLM Day上一起开了个会𝐂𝐚𝐥𝐧𝐢𝐊𝐞𝐚𝐧双皮奶内衣裤,软弹有度,上身0束缚~GPT-3计划开源!Sam Altman自曝急缺GPU,GPT-4多模态能力明年开放LLM底座模型:LLaMA、Palm、GLM、BLOOM、GPT结构对比斯坦福三申三录,哥大连中三元,哈耶普斯麻申四录四,斯坦福、MIT、CIT、CMU等九大理工强校理工专业大满贯,是怎么做到的?击败Llama 2,抗衡GPT-3.5,Stability AI新模型登顶开源大模型排行榜傲娇|“2023全球宜居城市”最新排名,温哥华稳居前五!国内开源第一!百川开源大模型Baichuan-13B评测揭晓|SuperCLUE谷歌PaLM 2弱爆:LLM大排名屈居第六,准中文倒数第二|UC伯克利排行榜新鲜榜出炉代码大战白热化:WizardCoder挑落Bard及Claude,性能直追ChatGPT2023年上半年美股股权排行榜发布击败ChatGPT?OpenChat霸榜斯坦福AlpacaEval开源榜首,性能高达105.7%训练14分钟,超越Alpaca!华人团队发布「飞天羊驼」,基于LLM的数据过滤新范式健行不对齐,反而性能爆表?130亿模型碾压650亿,Hugging Face大模型排行榜发布GPT-3 计划开源!Sam Altman 自曝急缺 GPU,GPT-4 多模态能力明年开放让人抓狂的马克龙和我们的退休年龄斯坦福发布LLM排行榜AlpacaEval,微软WizardLM登顶开源模型第一超越GPT-4!华人团队爆火InstructBLIP抢跑看图聊天,开源项目横扫多项SOTAChatGPT 是 ENTJ,GPT4 竟是 INTJ?一项关于LLMs的MBTI测试遇罗克,中华的马丁.路德. 金GPT-4平替来了!华人团队开源miniGPT-4,只需23G显存,画草稿写网站,还能帮你修洗衣机GPT作文能力比拼:GPT3.5、GPT4、百度文心一言、讯飞星火可商用多语言聊天LLM开源,性能直逼GPT-4
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。