Redian新闻
>
华人科学团队推出「思维链集」,全面测评大模型复杂推理能力

华人科学团队推出「思维链集」,全面测评大模型复杂推理能力

公众号新闻



  新智元报道  

编辑:编辑部
【新智元导读】研究人员希望通过对大模型复杂推理能力的评测来充分发掘大模型未来执行各种复杂任务的潜力。

大模型能力涌现,参数规模越大越好?

然而,越来越多的研究人员声称,小于10B的模型也可以实现与GPT-3.5相当的性能。

真是如此吗?

OpenAI发布GPT-4的博客中,曾提到:

在随意的交谈中,GPT-3.5和GPT-4之间的区别可能很微妙。当任务的复杂性达到足够阈值时,差异就会出现——GPT-4比GPT-3.5更可靠、更有创意,并且能够处理更细微的指令。

谷歌的开发者对PaLM模型也进行了类似的观察,他们发现,大模型的思维链推理能力明显强于小模型。

这些观察都表明,执行复杂任务的能力,才是体现大模型能力的关键。

就像那句老话,模型和程序员一样,「废话少说,show me the reasoning」。

来自爱丁堡大学、华盛顿大学、艾伦AI研究所的研究人员认为,复杂推理能力是大模型在未来进一步朝着更加智能化工具发展的基础。

基本的文字总结归纳能力,大模型执行起来确实属于「杀鸡用牛刀」。

针对这些基础能力的测评,对于研究大模型未来发展似乎是有些不务正业。

论文地址:https://arxiv.org/pdf/2305.17306.pdf

大模型推理能力哪家强?

这也就是为什么研究人员编制了一个复杂推理任务列表Chain-of-Thought Hub,来衡量模型在具有挑战性的推理任务中的表现。

测试项目包括,数学(GSM8K)),科学(MATH,定理 QA),符号(BBH) ,知识(MMLU,C-Eval),编码(HumanEval)。

这些测试项目或者数据集都是针对大模型的复杂推理能力下手,没有那种谁来都能答得八九不离十的简单任务。

研究人员依然采用思维链提示(COT Prompt)的方式来对模型的推理能力进行测评。

对于推理能力的测试,研究人员只采用最终答案的表现作为唯一的衡量标准,而中间的推理步骤不作为评判的依据。

如下图所示,当前主流模型在不同推理任务上的表现。

测试结果:模型越大推理能力越强

研究人员的研究专注于当前流行模型,包括GPT、Claude、PaLM、LLaMA和T5模型家族,具体而言:

OpenAI GPT包括GPT-4(目前最强)、GPT3.5-Turbo(更快,但能力较弱)、text-davinci-003、text-davinci-002和code-davinci-002(Turbo之前的重要版本)。

Anthropic Claude包括claude-v1.3(较慢但能力较强)和claude-instant-v1.0(较快但能力较弱)。

Google PaLM,包括PaLM、PaLM-2,以及它们的指令调整版本(FLan-PaLM和Flan-UPaLM),强基础和指令调整模型。

Meta LLaMA,包括7B、13B、33B和65B变体,重要的开放源码的基础模型。

GPT-4在GSM8K和MMLU上明显优于其他所有模型,而Claude是唯一一个与GPT系列相媲美的模型。

FlanT5 11B和LLaMA 7B等较小的模型掉队掉的厉害。

通过实验,研究人员发现,模型性能通常与规模相关,大致呈对数线性趋势。

不公开参数规模的模型,通常比公开规模信息的模型表现更好。

LLaMA-65B推理能力接近ChatGPT

另外,研究者指出,开源社区可能仍需要探索关于规模和RLHF的「护城河」以进一步改进。

论文一作符尧总结道:

1. 开源和封闭之间存在明显的差距。 

2. 大多数排名靠前的主流模型是RLHF

3. LLaMA-65B非常接近code-davinci-002,GPT-3.5的基础模型 

4. 综合上述,最有希望的方向是「在LLaMA 65B上做RLHF」。

针对这个项目,作者对未来的进一步优化进行了说明:

未来会增加更多包括更精心选择的推理数据集,尤其是衡量常识推理、数学定理的数据集。

以及调用外部 API 的能力。

更重要的是要囊括更多语言模型,例如基于 LLaMA 的指令微调模型,例如 Vicuna7等等开源模型。

还可以通过 API像 Cohere 8 一样访问PaLM-2 等模型的能力。

总之,作者相信这个项目可以作为评估和指导开源大语言模型发展的一个公益设施发挥很大作用。

参考资料:
https://github.com/FranxYao/chain-of-thought-hub




微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
Google 团队推出作图工具 StyleDrop,AI 画图更加可控已团13万单|只要9块8!轻松搞定小学英语语法的「思维导图」和「2米中国历史卷轴」大模型思维链经典论文阅读之——Zero-shot CoT, Manual CoT, AutoCoT国产大模型进步有多快?我们用Z-Bench对10个模型进行了能力测评GPT-4拿下最难数学推理数据集新SOTA,新型Prompting让大模型推理能力狂升结合符号性记忆,清华等提出ChatDB,提升大模型的复杂推理能力中国团队推出脑电图图像生成模型DreamDiffusion两首和MSl的合唱:《山楂树》&《这世界那么多人》思维链如何释放语言模型的隐藏能力?最新理论研究揭示其背后奥秘活着还能感觉就是恩典为了测试ChatGPT的推理能力,哥本哈根大学甚至用上了宝可梦在这人间放声大哭中国团队推出世界首颗 AI 全自动设计 CPU“启蒙 1 号”符尧 | 复杂推理:大语言模型的北极星能力又萌又硬核,培养逻辑推理能力,从这套桌游开始GPT-4推理提升1750%!普林斯顿清华姚班校友提出全新「思维树ToT」框架,让LLM反复思考复杂推理:大语言模型的北极星能力阿里达摩院大模型公开课上新!主讲中文个性化对话大模型ChatPLUG和模块化多模态大模型mPLUG-Owl中国团队自动驾驶大模型斩获CVPR最佳论文;Stability AI推出新文生图模型;京东大模型即将发布丨AIGC大事日报思维链加持,现场拔网线,第四范式「式说」大模型改造软件来了OpenAI新作,直指DeepMind格局小了!大模型复杂推理应逐步验证苹果MR头显平价版或2025推出/莫言用ChatGPT给余华写颁奖词/GPT-4或具备人类推理能力「模仿学习」只会套话?解释微调+130亿参数Orca:推理能力打平ChatGPTACL 2023 | 利用思维链(CoT)推理隐式情感,狂涨50%650亿参数,训练飙升38%!LLaMA基础大模型复刻最佳实践开源,GitHub已获30k星无题本科毕业加入谷歌,还写了「思维链」开山之作,这位OpenAI新秀正为本科生答疑解惑ChatGPT时代必备的生存技能是什么OpenAI员工与友商玩起提示词决斗!网友:居然能靠大模型的情商增强推理能力LLM推理提速2.8倍,CMU清华姚班校友提出「投机式推理」引擎SpecInfer,小模型撬动大模型高效推理只给大模型LeetCode编号,也能解题!大模型表现好是源于对训练数据的记忆吗?请不要迷信大模型从小培养逻辑推理能力,从这套桌游开始BLIP-2、InstructBLIP稳居前三!十二大模型,十六份榜单,全面测评「多模态大语言模型」火山引擎推出大模型平台;云知声提交上市申请;联通推出首个运营商大模型丨AIGC大事日报OpenAI劲敌融资13亿美元;中国团队推首颗AI全自动设计CPU;全球首个医疗多模态基础模型群发布丨AIGC大事日报
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。