谷歌出品:基于大型语言模型的语义解析方法
Abstract
论文标题:
Compositional Semantic Parsing with Large Language Models
https://arxiv.org/pdf/2209.15003.pdf
Introduction
组合性是人类智慧的关键部分,因为它使我们能够理解和产生可能无限数量的已知组件的新颖组合。相比之下,标准神经序列模型、transformer 和递归神经网络通常无法捕获问题域的组成结构,因此无法在组成上进行概括。先前改进组合泛化的工作主要依赖于专门的架构或训练程序。尽管有效,但这些可能是针对特定任务的。
另一方面,由于 prompt 方法足够灵活,并且随着最近大规模预训练语言模型 (LLM) 的进步,prompt 已成为解决广泛 NLU 问题的有效且通用的方法 。在许多情况下,prompt 现在的性能与模型微调后的性能相当或更好(Wei 等人,2022b;Chowdhery 等人,2022;Wei 等人,2022a;Kojima 等人,2022;Ahn 等人,2022) ,并且可能适用于提高语言模型在组合泛化方面的性能。
特别是,最近的工作发现,从 least-to-most prompting(最少到最多的提示)显示了将 LLM 用于组合泛化的很大潜力,在 SCAN(一种常用的组合泛化基准任务)上实现了 99.7% 的准确率。
其中 least-to-most prompting 将每个问题分解为一系列子问题,然后依次解决一个接一个。当将 Least-to-most prompting 应用于更现实的语义解析基准时,会出现其他挑战。除其他外,他们可能需要的信息超出了单个提示中的范围。此外,分解问题比使用 SCAN 更困难,无法独立于其上下文进行翻译的成分加剧了这一问题。
基于此,作者设计了 dynamic least-to-most prompting 来应对这些挑战,这是对该方法的通用细化,涉及以下步骤:1)通过大规模语言模型通过语法解析对自然语言的输入(query)进行树结构分解;2)使用基于分解的示例动态选择策略,以及 3)将分解树线性化,并提示模型按顺序生成子问题的答案。
Method
作者提出以下三种方法:
2. 基于分解示例的动态选择:我们采样了 train 的一小部分(1000条),作为候选者池。对于要处理的每个新输入句,我们从这个池中动态选择示例,以便它们集体展示翻译输入句子所需的相关知识。这是通过将输入的分解树与候选示例的分解树匹配来完成的。(为每个问题从池子里构建候选 prompting)。
3. 基于分解的连续解:我们使用输入句子的基于树的分解来生成其他相关更简单句子的线性序列。然后,我们构建一个包含动态选择示例的提示,并在生成最终输出之前使用它来连续预测更简单句子的解决方案。(将子问题,候选池拼接,进行语义解析)。
数据集:语义解析数据集 CFQ(Keysers 等人,2020 年)并且有三个最大分裂集(MCD1,MCD2,MCD3),用于测量成分泛化,每个分裂集的 train/valid/test 分裂中都有 95743/11968/11968 sentences。COGS(Kim 和 Linzen,2020 年)在 train/valid/test 中有 24155/3000/21000 句话。
候选池:对于每个 CFQ 拆分,我们采样了 1000 个训练示例,用作潜在示例(约占训练数据的 1%)。对于 COGS,我们手动选择了 89 个 train 示例作为潜在示例(约占培训数据的 0.4%)。
Metri:我们使用精确匹配(EM)来衡量准确性。这是作为 groundtruth 和 predict 之间的精确字符串匹配计算的。为了使该指标对 CFQ 具有可解释性,我们对输出应用规范化,包括对属性进行排序和应用确定性参数排序。
本文并没有是用全监督的设置,即直接使用 prompt 提示预训练的模型,放弃微调阶段。因为存在候选池,所以约使用 1% 的训练数据,而其他方法均是全监督。
更多阅读
#投 稿 通 道#
让你的文字被更多人看到
如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。
总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。
PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析、科研心得或竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。
📝 稿件基本要求:
• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注
• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题
• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算
📬 投稿通道:
• 投稿邮箱:[email protected]
• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者
• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿
△长按添加PaperWeekly小编
🔍
现在,在「知乎」也能找到我们了
进入知乎首页搜索「PaperWeekly」
点击「关注」订阅我们的专栏吧
微信扫码关注该文公众号作者