Redian新闻
>
ACL 2023长文 | 先计划再求解:提升大型语言模型的零样本链式推理

ACL 2023长文 | 先计划再求解:提升大型语言模型的零样本链式推理

科技


©PaperWeekly 原创 · 作者 | 王磊
单位 | 新加坡管理大学
研究方向 | 自然语言处理


论文标题:
Plan-and-Solve Prompting: Improving Zero-Shot Chain-of-Thought Reasoning by Large Language Models

收录会议:

ACL 2023

论文链接:

https://arxiv.org/abs/2305.04091

开源链接:

https://github.com/AGI-Edgerunners/Plan-and-Solve-Prompting




志在千里,源远流长

最近,在各种自然语言处理任务中,大型语言模型(LLMs)展现出了优越的性能。为了解决多步推理任务,少样本链式思维(CoT)提示包括一些手工设计的逐步推理演示,使 LLMs 能够明确生成推理步骤并提高推理准确性 [1]。为了消除少样本链式思维(CoT)中的手工工作,零样本 CoT 将目标问题与 “Let’s think step by step” 一起作为输入提示连接到 LLMs 上 [2]。尽管零样本 CoT 取得了成功,但仍然存在三个问题:计算错误、缺失步骤错误和语义误解错误。




方略布局,谋定而动

为了解决缺失步骤错误,我们提出了 PS(Plan-and-Solve)提示,即制定一个计划将整个任务分解为较小的子任务并按照计划执行子任务,使 LLMs 能够明确制定解决问题的计划,并在预测输入问题的最终答案之前生成中间推理过程。

我们通过更详细的说明扩展了 PS 提示基于计划的触发句,并得到了 PS+ 提示。具体而言,我们在触发句中添加了“pay attention to calculation”,要求 LLMs 尽可能准确地进行计算。

为了减少由于缺失必要推理步骤而导致的错误,我们在 PS+ 提示中增加了“extract relevant variables and their corresponding numerals”,指示 LLMs 不要忽略输入问题陈述中的相关信息。此外,我们在提示中添加了“calculate intermediate results”,以增强 LLM 生成推理步骤的能力。

具体的 PS 和 PS+ 提示如下所示:




成果丰盈,硕果累累
我们在三个推理任务的十个数据集上评估了我们提出的提示策略。通过对 GPT-3 的实验结果表明,我们提出的零样本提示在所有数据集上始终明显优于零样本 CoT,并且在数学推理问题上与 8-shot CoT 提示性能相当。

6 个算术推理数据集的实验结果如下所示,6 个算术推理数据集分别是:(1)MultiArith;(2)GSM8K;(3)AddSub;(4)AQuA;(5)SingleEq;(6)SVAMP。

2 个常识推理数据集的实验结果如下所示,2 个常识推理数据集分别是:(1)CSQA;(2)StrategyQA。

2 个符号推理数据集的实验结果如下所示,2 个常识推理数据集分别是:(1)Last Letter;(2)Coin Flip。



参考文献

[1] Wei, J., Wang, X., Schuurmans, D., Bosma, M., Chi, E., Le, Q., & Zhou, D. (2022). Chain of thought prompting elicits reasoning in large language models. arXiv preprint arXiv:2201.11903.
[2] Takeshi Kojima, Shixiang Shane Gu, Machel Reid, Yutaka Matsuo, and Yusuke Iwasawa. 2022. Large language models are zero-shot reasoners. arXiv preprint arXiv:2205.11916.


更多阅读


#投 稿 通 道#

 让你的文字被更多人看到 



如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。


总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 


PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。


📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算


📬 投稿通道:

• 投稿邮箱:[email protected] 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿


△长按添加PaperWeekly小编



🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧



·
·

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
老海归回国被扣的经过周五云讲堂 | 王子涵:大型语言模型及其应用有证据了,MIT表明:大型语言模型≠随机鹦鹉,确实能学到语义大型语言模型也能跑在浏览器上了!又一ChatGPT平替诞生,训练成本8.5万美元表现优于 GPT-4,ChemCrow 集成 13 种化学工具,增强大型语言模型的化学性能揭秘大语言模型实践:分布式推理的工程化落地才是关键!VALSE 2023 | 左旺孟教授:预训练模型和语言增强的零样本视觉学习关于大型语言模型的争论和局限【保姆级】深入解析大型语言模型核心技术百篇论文纵览大型语言模型最新研究进展中文医学大模型“本草”(原名华驼):医学知识增强在中文大型语言模型指令微调上的初步探索大型语言模型综述全新出炉:从T5到GPT-4最全盘点,国内20余位研究者联合撰写大型语言模型综述全新出炉!从T5到GPT-4最全盘点,国内20余位研究者联合撰写讲座预告 | 软件工程学院博学论坛第十五期:自然语言处理与大型语言模型的挑战与探索Stability AI宣布推出新的开源大型语言模型解密大型语言模型:从相关性中发现因果关系?基于重排序的新量化方法RPTQ:实现大型语言模型的 3 比特量化大型语言模型(LLM)的潜力有多大?北京内推 | 阿里达摩院招聘大型语言模型(LLM)应用方向实习生汪峰质问章子怡:你跟几个男人回过家?情商高的章子怡这么回答“鬼才”贾平凹说:“那些穷乡僻壤里的光棍们,从来不在乎女人的外貌,只要是邀请您参加IEEE网络技术论坛:基于大型语言模型的组合推理银行业专用大型语言模型落地从抽雪茄到捡肥皂InfoQ 2023 年趋势报告:影响组织文化的两个最大的因素是大裁员和 ChatGPT 等大型语言模型姐夫深夜酒醉后闯进了我的房间,我应该把这件事情告诉姐姐吗?大型语言模型与知识图谱协同研究综述:两大技术优势互补LLM推理提速2.8倍,CMU清华姚班校友提出「投机式推理」引擎SpecInfer,小模型撬动大模型高效推理结合符号性记忆,清华等提出ChatDB,提升大模型的复杂推理能力褪黑素能预防睡眠不足导致的记忆缺陷;大型语言模型综述全新出炉:从T5到GPT-4最全盘点|本周论文推荐大型语言模型的推理演算Pienso为企业提供由云上IPU支持的高效大型语言模型访问如何更好地蒸馏ChatGPT模型能力:Lion闭源大型语言模型的对抗性蒸馏模型原理及实验工作介绍大型语言模型技术公开课上线4讲!直播讲解ChatGPT开源平替、类GPT4低成本定制以及GPT4ToolsICLR 2023 | 基于视觉语言预训练模型的医疗图像小样本学习及零样本推理性能研究
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。