Redian新闻
>
LLaMA-2-7B数学能力上限已达97.7%?Xwin-Math利用合成数据解锁潜力

LLaMA-2-7B数学能力上限已达97.7%?Xwin-Math利用合成数据解锁潜力

公众号新闻


MLNLP社区是国内外知名的机器学习与自然语言处理社区,受众覆盖国内外NLP硕博生、高校老师以及企业研究人员。
社区的愿景是促进国内外自然语言处理,机器学习学术界、产业界和广大爱好者之间的交流和进步,特别是初学者同学们的进步。
转载自 | 机器之心

合成数据持续解锁大模型的数学推理潜力!

数学问题解决能力一直被视为衡量语言模型智能水平的重要指标。通常只有规模极大的模型或经过大量数学相关预训练的模型才能有机会在数学问题上表现出色。

近日,一项由 Swin-Transformer 团队打造,来自西安交通大学、中国科学技术大学、清华大学和微软亚洲研究院的学者共同完成的研究工作 Xwin 颠覆了这一认知,揭示了通用预训练下 7B(即 70 亿参数)规模的语言模型(LLaMA-2-7B)在数学问题解决方面已经展现出较强的潜力,并可使用基于合成数据的有监督微调方法促使模型愈发稳定地将数学能力激发出来。

这项研究发布在 arXiv 上,题为《Common 7B Language Models Already Possess Strong Math Capabilities》。

  • 论文链接:https://arxiv.org/pdf/2403.04706.pdf

  • 代码链接:https://github.com/Xwin-LM/Xwin-LM

研究团队首先仅使用 7.5K 数据,对 LLaMA-2-7B 模型指令微调,进而测评模型在 GSM8K 和 MATH 的表现。实验结果表明,当对每一个测试集中的问题从 256 个生成的答案中选择最佳答案时,测试准确率可分别高达 97.7% 和 72.0%,这一结果说明即使是通用预训练下 7B 量级的小模型,也具备生成优质回答的巨大潜力,这一发现挑战了以往的观点,即强大的数学推理潜力并非仅限于大规模和数学相关预训练模型。

然而研究也指出,尽管已具备强大的数学推理潜力,但当前语言模型的主要问题是难以一致地激发其内在的数学能力。例如,在前面的实验中如果只考虑每个问题的一次生成的答案,那么在 GSM8K 和 MATH 基准测试上的准确率会分别降至 49.5% 和 7.9%。这体现出模型数学能力的不稳定性问题。为了解决这一问题,研究团队采用了扩大有监督微调(SFT)数据集的方法,并发现随着 SFT 数据的增多,模型生成正确答案的可靠性被显著提升。

研究中还提到,通过使用合成数据,可以有效地扩大 SFT 数据集,而且这种方法几乎与真实数据一样有效。研究团队利用 GPT-4 Turbo API 生成了合成的数学问题与解题过程,并通过简单的验证提示词来确保问题的质量。通过这种方法,团队成功地将 SFT 数据集从 7.5K 扩展到约一百万样本,实现了近乎完美的缩放定律(Scaling Law)。最终获得的 Xwin-Math-7B 模型在 GSM8K 和 MATH 上分别达到了 82.6% 和 40.6% 的准确率,大幅超越此前的 SOTA 模型,甚至可超越一些 70B 量级模型,实现越级提升。而 Xwin-Math-70B 模型在 MATH 评测集上的结果可达 52.8%,显著超越了 GPT-4 的早期版本。这是基于 LLaMA 系列基础模型的研究第一次在 MATH 上超越 GPT-4。

研究人员还定义了 Pass@N 和 PassRatio@N 评测指标,意图分别测评模型的 N 次输出中,是否能够输出正确答案(表示模型潜在的数学能力),以及正确答案的所占比例(表示模型数学能力的稳定性)。当 SFT 数据量较小时,模型的 Pass@256 已经很高,进一步扩大 SFT 数据规模后,模型的 Pass@256 提升极小,而 PassRatio@256 则获得显著增长。这表明基于合成数据的有监督微调是提升模型数学能力稳定性的有效方式。

此外,研究还提供了对不同推理复杂性和错误类型下扩展行为的洞察。例如,随着 SFT 数据集规模的增加,模型在解决数学问题时的准确率遵循与推理步骤数量相关的幂律关系。通过增加训练样本中长推理步骤的比例,可以显著提高模型解决难题的准确率。同时,研究还发现,计算错误比推理错误更容易被缓解。

在表现模型数学推理泛化能力的匈牙利高中数学考试中,Xwin-Math 也拿到了 65% 的分数,仅次于 GPT-4。这表明研究中合成数据的方式并没有显著地过拟合到评测集中,展现出良好的泛化能力。

这项研究不仅展示了合成数据在扩展 SFT 数据方面的有效性,而且为大型语言模型在数学推理能力方面的研究提供了新的视角。研究团队表示,他们的工作为未来在这一领域的探索和进步奠定了基础,并期待能够推动人工智能在数学问题解决方面取得更大的突破。随着人工智能技术的不断进步,我们有理由期待 AI 在数学领域的表现将更加出色,为人类解决复杂数学问题提供更多帮助。

文章还涉及数据合成方法的消融实验和其他评测指标的结果,详细内容请参阅全文。


技术交流群邀请函

△长按添加小助手

扫描二维码添加小助手微信

请备注:姓名-学校/公司-研究方向
(如:小张-哈工大-对话系统)
即可申请加入自然语言处理/Pytorch等技术交流群

关于我们

MLNLP 社区是由国内外机器学习与自然语言处理学者联合构建的民间学术社区,目前已经发展为国内外知名的机器学习与自然语言处理社区,旨在促进机器学习,自然语言处理学术界、产业界和广大爱好者之间的进步。
社区可以为相关从业者的深造、就业及研究等方面提供开放交流平台。欢迎大家关注和加入我们。

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
淘书小记毕业生薪资高达97万!恭喜学员斩获斯坦福大学王牌专业——计算机科学硕士项目!【行业日报】Springer宣布和微软进行云应用合作!特斯拉空头投资者四天损失达55亿美金!吴军团队同日2篇Cell论文:利用异种囊胚互补生成功能性脑组织,实现异种神经元连接,具有应用潜力SpaceX 泄露近150GB数据,以及三千份图纸从移民局公布的H1B数据上看,今年海底捞……六月雪.菖兰比《魔戒》口碑还炸裂!好评率高达97%,专属定制《沙丘》(电影纪念版)终于来了!有限与无限的世界——2024年“30位年度影响力商界木兰”数据解读疫情沧桑 塘西皇家记忆 (多图)51Sim获5000万元A轮融资,聚焦自动驾驶仿真与合成数据|36氪首发成果刊登Science,闫建斌与雷晓光团队共同解析紫杉醇生物合成关键酶,在烟草中实现紫杉醇前体生物合成GPT-4惨遭黑客利用!勒索软件20分钟加密100GB数据,竟被ta阻止了分拆自曼彻斯特大学,初创聚焦合成燃料,已达成多项研究合作奖金十万美元!寻找数学能力最强大模型固定收益 | 境外机构大幅增持债券,全市场杠杆率较高—— 2024年2月中债、上清债券托管数据解读小红书迎来新社区内容负责人;文心一言数学能力与Claude-3并列第一;买“加速包”可优先购票?12306回应:无效……7B开源数学模型干翻千亿GPT-4,中国团队出品谷歌发布West-of-N,利用合成数据,显著提升LLM奖励模型质量 | 今日Arxiv最热大模型论文「专业智能体指导」让小模型学会数学推理!微调Mistral-7B实现86.81%准确率放过上海交大新框架解锁CLIP长文本能力,多模态生成细节拿捏,图像检索能力显著提升固定收益 | 欠配压力下,商业银行、保险超季节性增持债券——2024年3月中债、上清债券托管数据解读马斯克发布Grok 1.5! 编码和数学能力大幅提升将多模态大模型稀疏化,3B模型MoE-LLaVA媲美LLaVA-1.5-7B彭博推出时点数据解决方案 为量化研究提供竞争优势宇宙人(1489期)聂海胜出席中国航天大会;文心一言数学能力与Claude-3并列第一;英伟达黄仁勋称人形机器人未来将成主流2025财年H-1B数据公布:中签率近26%,注册总数下降约38%今日arXiv最热NLP大模型论文:天津大学发布大模型数学能力细粒度评价基准FineMath华为诺亚频域LLM「帝江」:仅需1/50训练成本,7B模型媲美LLaMA,推理加速5倍【倒计时2周】4大院士领衔,60+嘉宾阵容!合成领域的学术盛宴,就在 2024(第二届)合成生物学与生物医学健康大会!“合智聚势 成就未来” — 江苏省合成生物标准化技术委员会成立大会暨2024金坛合成生物产业建设推进会圆满举行!USCIS官宣24年H1B数据!有效注册数量超47万,人均注册数量大幅降低!钞能力好强!弟弟开车犯困姐姐使出钞能力丨冷兔小报 No.973为“自由卡车运动”平反而作
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。