Redian新闻
>
MetaMath:新数学推理语言模型,训练大模型的逆向思维

MetaMath:新数学推理语言模型,训练大模型的逆向思维

公众号新闻

机器之心专栏

机器之心编辑部


复杂数学推理是评价大语言模型推理能力的重要指标,目前常用的数学推理数据集样本量有限且问题多样性不足,导致大语言模型存在 [逆转诅咒] 的现象,即一个训练于「A 是 B」的语言模型无法推广到「B 是 A」[1]。此现象在数学推理任务中的具体形式是:即给定一个数学问题,语言模型擅于用正向推理解答问题但缺乏逆向推理解决问题的能力。逆向推理在数学问题中十分常见,如下 2 个例子。


1. 经典问题 - 鸡兔同笼


  • 正向推理:笼子里有 23 只鸡和 12 只兔,问笼子里有多少个头和多少只脚?

  • 逆向推理:有若干只鸡兔同在一个笼子里,从上面数,有 35 个头,从下面数,有 94 只脚。问笼中各有多少只鸡和兔?


2. GSM8K 问题


  • 正向推理: James buys 5 packs of beef that are 4 pounds each. The price of beef is $5.50 per pound. How much did he pay?

  • 逆向推理: James buys x packs of beef that are 4 pounds each. The price of beef is $5.50 per pound. How much did he pay? If we know the answer to the above question is 110, what is the value of unknown variable x?


为了提升模型的正向和逆向推理能力,剑桥、港科大、华为的研究者基于两个常用的数学数据集(GSM8K 和 MATH)提出了 MetaMathQA 数据集:一个覆盖面广、质量高的数学推理数据集。MetaMathQA 由 395K 个大语言模型生成的正向逆向数学问答对组成。他们在 MetaMathQA 数据集上基于 LLaMA-2 微调得到专注于数学推理 (正向和逆向) 的大语言模型 MetaMath,在数学推理数据集上达到了 SOTA。MetaMathQA 数据集和不同规模的 MetaMath 模型已开源供研究人员使用。



  • 项目地址:https://meta-math.github.io/

  • 论文地址:https://arxiv.org/abs/2309.12284

  • 数据地址:https://huggingface.co/datasets/meta-math/MetaMathQA

  • 模型地址:https://huggingface.co/meta-math

  • 代码地址:https://github.com/meta-math/MetaMath


本文中构造了一个逆向推理数据集 GSM8K-Backward。实验结果表明,目前的方法(e.g., SFT、RFT、WizardMath)在逆向推理问题中表现远差于正向推理。相较而言,MetaMath 模型在正向和反向推理上都取得了优越的性能。



方法



MetaMathQA 包含四种数据增强的方法:


1. Answer Augmentation (答案增强):给定问题,通过大语言模型生成能得到正确结果的思维链作为数据增广。


  • Question: James buys 5 packs of beef that are 4 pounds each. The price of beef is $5.50 per pound. How much did he pay?

  • Answer: James buys 5 packs of beef that are 4 pounds each, so he buys a total of 5 * 4 = 20 pounds of beef. The price of beef is $5.50 per pound, so he pays 20 * $5.50 = $110. The answer is: 110.


2. Rephrasing Question (问题改写增强):给定元问题,通过大语言模型重写问题并生成得到正确结果的思维链作为数据增广。


  • Question: What is the total amount that James paid when he purchased 5 packs of beef, each weighing 4 pounds, at a price of $5.50 per pound?

  • Answer: Each pack of beef weighs 4 pounds, so 5 packs weigh 4 * 5 = 20 pounds in total. The price per pound of beef is $5.50, so the total cost for 20 pounds is 20 * $5.50 = $110. Therefore, James paid a total of $110. The answer is: 110.


3. FOBAR Question (FOBAR 逆向问题增强):给定元问题,通过掩码条件中的数字为 x,给定原有答案并反推 x 来产生逆向问题,并基于该逆向问题生成正确的思维链过程来进行数据增广(反推样例:“If we know the answer to the above question is 110, what is the value of unknown variable x?”)。


  • Question: James buys x packs of beef that are 4 pounds each. The price of beef is $5.50 per pound. How much did he pay? If we know the answer to the above question is 110, what is the value of unknown variable x?

  • Answer: James buys x packs of beef that are 4 pounds each, so he buys a total of 4x pounds of beef. The price of beef is $5.50 per pound, so the total cost of the beef is 5.50 * 4x = 22x. We are given that the total cost is $110, so we can write: 22x = 110. Dividing both sides by 22, we get: x = 5. The value of x is 5.


4. Self-Verification Question (Self-Verification 逆向问题增强):在 FOBAR 的基础上,通过大语言模型改写逆向问题部分为陈述的语句来进行数据增广(改写样例:“How much did he pay?” (with the answer 110) 被改写成 “He paid 110”)。


  • Question: James buys x packs of beef that are 4 pounds each. The price of beef is $5.50 per pound. He paid 110. What is the value of unknown variable x?

  • Answer: To solve this problem, we need to determine the value of x, which represents the number of packs of beef that James bought. Each pack of beef weighs 4 pounds and costs $5.50 per pound. The total amount James paid is $110. We can set up the equation as follows: Number of packs of beef * Weight per pack * Price per pound = Total amount paid; x * 4 * $5.50 = $110; Let's simplify and solve for x: 4x * $5.50 = $110; 22x = $110; To isolate x, we divide both sides of the equation by 22: 22x / 22 = $110 / 22; x = $5; The value of x is 5.


实验结果




在两个常见数学推理数据集(GSM8K 和 MATH)的实验结果表明,在不借助外部工具(e.g., code interpreter), MetaMath 在性能上显著优于已有开源 LLM 模型。其中,我们的 MetaMath-7B 模型在 GSM8K 上达到了 66.5% 的准确率,在 MATH 上达到了 19.8% 的准确率,超过了相同规模的最先进模型分别 11.6% 和 9.1%。特别地,MetaMath-70B 在 GSM8K 上达到了 82.3% 的准确率,超过 GPT-3.5-Turbo。


根据 Superficial Alignment Hypothesis [2],大语言模型的能力源于预训练,而来自下游任务的数据则激活了预训练期间学习到的语言模型的固有能力。由此产生了两个重要问题:(i)什么类型的数据可以最有效地激活潜在知识,以及(ii)为什么一个数据集在这种激活中比另一个数据集更好?


为什么 MetaMathQA 有用?提高了思维链数据的质量 (Perplexity)



如上图所示,研究者们计算了 LLaMA-2-7B 模型在仅答案数据、GSM8K CoT 以及 MetaMathQA 数据的各部分上的 perplexity。MetaMathQA 各部分的 perplexity 显著低于其他两个数据集,这突显了它固有的易学性,可能更有助于引导出模型的潜在知识。

为什么 MetaMathQA 有用?增加了思维链数据的多样性 (Diversity)


通过比较数据的多样性增益和模型的准确率增益,他们发现 Rephrasing、FOBAR 和 SV 添加相同数量的增广数据带来了明显的多样性增益,显著提升了模型准确率。相比之下,简单地使用答案增强会导致明显的准确率饱和。在准确率饱和之后,增加 AnsAug 数据只会带来有限的性能提升。

参考内容:

[1] Berglund, Lukas, et al. "The Reversal Curse: LLMs trained on “A is B” fail to learn “B is A”." arXiv preprint arXiv:1907.11692 (2023).

[2] Zhou, Chunting, et al. "Lima: Less is more for alignment." arXiv preprint arXiv:2305.11206 (2023).




© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
​基于MCTS和Residual-EBM的数学推理能力提升实践训练大模型缺少高质量数据?我们找到了一种新的解决方案哈工大发布大模型思维链推理综述:200+文献全面解析大语言模型思维链推理最新进展SafetyBench:通过单选题评估大型语言模型安全性笑谈邂逅(31)感谢尹鸿祝,为女儿赴美留学牵线搭桥微软开源的大模型太强了,数学推理超ChatGPT,论文、模型权重全部公开0.3%参数推理,实现78倍加速!ETH团队提出UltraFastBERT,构筑语言模型巨人最新综述!预训练大模型用于医疗健康领域的全面调研北京理工大学发布双语轻量级语言模型,明德大模型—MindLLM,看小模型如何比肩大模型科研上新 | 语言-音乐对比预训练;查找表实现的神经网络推理;大模型时代重新定义搜索框架Meta对Transformer架构下手了:新注意力机制更懂推理大型语言模型训练加速专场在线研讨会上线,三位专家将主讲AI服务器、训练框架和云上高性能存储架构用FP8训练大模型有多香?微软:比BF16快64%,省42%内存112页报告深挖GPT-4V!UCLA等发布全新「多模态数学推理」基准MathVista华为提出Sorted LLaMA:SoFT代替SFT,训练多合一大语言模型​开源模型在竞赛数学MATH上首次突破50%,清华、微软联合推出工具集成推理语言模型红色日记 9.1-10OPPO 推出自主训练大模型 AndesGPT,初衷是智能助手的技术升级从原理到代码理解语言模型训练和推理,通俗易懂,快速修炼LLM基于Transformer和注意力的可解释核苷酸语言模型,用于pegRNA优化设计GPT-4V数学推理如何?微软发布MathVista基准,评测报告长达112页ICCV 2023 | 基于预训练视觉语言模型和大语言模型的零样本图像到文本生成谷歌:大模型不仅有涌现能力,训练时间长了还有「领悟」能力用暂停token重新训练大模型,AI学会三思而后行两首《青海情》铅笔英伟达推出大模型加速包;Meta将训练对标GPT-4的大模型;ChatGPT等成费水大户丨AIGC大事日报MetaMath:新数学推理数据集揭秘,让大语言模型突破逆转诅咒中文LLaMA-2刷榜,开源可商用!千元预算,训练半天,效果媲美主流大模型"不走明星基金经理路线!"国泰基金周向勇:坚持逆向思维,追求为客户带来回报的高质量规模百川智能发布Baichuan2大模型:全面领先Llama2,训练切片也开源了Yann LeCun点赞!Meta对Transformer架构下手了:新注意力机制更懂推理起飞在雨中EMNLP 2023 | 用于开放域多跳推理的大语言模型的自我提示思想链苹果“套娃”式扩散模型,训练步数减少七成!
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。