Redian新闻
>
AAAI 2023 | 基于T5的两阶段的多任务Text-to-SQL预训练模型MIGA

AAAI 2023 | 基于T5的两阶段的多任务Text-to-SQL预训练模型MIGA

公众号新闻

机器之心专栏

作者:网易互娱 AI Lab
网易互娱 AI Lab 联合广东外语外贸大学和哥伦比亚大学基于预训练语言模型 T5 的预训练方式,提出了两阶段的多任务预训练模型 MIGA。

越来越多的工作证明了预训练语言模型(PLM)中蕴含着丰富的知识,针对不同的任务,用合适的训练方式来撬动 PLM,能更好地提升模型的能力。在 Text-to-SQL 任务中,目前主流的生成器是基于语法树的,需要针对 SQL 语法进行设计。


近期,网易互娱 AI Lab 联合广东外语外贸大学和哥伦比亚大学基于预训练语言模型 T5 的预训练方式,提出了两阶段的多任务预训练模型 MIGA。MIGA 在预训练阶段引入三个辅助任务,并将他们组织成统一的生成任务范式,可以将所有的 Text-to-SQL 数据集统一进行训练;同时在微调阶段,MIGA 针对多轮对话中的错误传递问题进行 SQL 扰动,提升了模型生成的鲁棒性。


目前对于 Text-to-SQL 的研究,主流的方法主要是基于 SQL 语法树的 encoder-decoder 模型,可以确保生成的结果一定符合 SQL 语法,但是需要针对 SQL 语法进行特殊设计。最近也有一些关于 Text-to-SQL 的研究是基于生成式语言模型,可以很方便地继承预训练语言模型的知识和能力。


为了降低对基于语法树的依赖,更好地挖掘预训练语言模型的能力,该研究在预训练 T5 模型的框架下,提出了一个两阶段的多任务 Text-to-SQL 预训练模型 MIGA (MultI-task Generation frAmework)。


MIGA 分为两阶段的训练过程:


  • 在预训练阶段,MIGA 使用与 T5 相同的预训练范式,额外提出了三个与 Text-to-SQL 相关的辅助任务,从而更好地激发预训练语言模型中的知识。该训练方式可以将所有的 Text-to-SQL 的数据集进行统一,扩充了训练数据的规模;而且也可以灵活地去设计更多有效的辅助任务,进一步发掘预训练语言模型的潜在知识。

  • 在微调阶段,MIGA 针对多轮对话和 SQL 中容易存在的错误传递问题,在训练过程中对历史 SQL 进行扰动,使得生成当前轮次的 SQL 效果更加稳定。


MIGA 模型在两个多轮对话 Text-to-SQL 公开数据集上表现优于目前最好的基于语法树的模型,相关研究已经被 AAAI 2023 录用。


论文地址:https://arxiv.org/abs/2212.09278


MIGA 模型细节


图 1 MIGA 模型图。


多任务预训练阶段


该研究主要参考 T5 的预训练方式,基于已经训练好的 T5 模型,设计了四个预训练任务:


  • Text-to-SQL 主任务:上图中的黄色部分,通过设计 Prompt 为”translate dialogue to system query”,然后以一些 special tokens 来将历史对话、数据库信息和 SQL 语句拼接输入到 T5-encoder 中,让 decoder 直接输出对应的 SQL 语句;

  • 相关信息预测:上图中的绿色部分,设计 Prompt 为”translate dialogue to relevant column”,T5-encoder 的输入也是与主任务一致,decoder 则需要输出与当前问题相关的数据表和列,目的是加强模型对 Text-to-SQL 的理解;

  • 当前轮次的操作预测:上图中的灰色部分,设计 Prompt 为”translate dialogue to turn switch”,这个任务主要是针对多轮对话中的上下文理解进行设计,对比上一轮的对话和 SQL,decoder 需要输出当前对话的目的做了哪些变化,比如图中例子是 where 条件进行了改动;

  • 最终对话预测:上图中的蓝色部分,设计 Prompt 为”translate dialogue to final utterance”,目的是为了让模型去更好的理解上下文对话,需要 decoder 输出整个多轮对话下来,最后时刻的 SQL 对应的一句完整问题描述。

通过这样的一个统一的训练方式设计,MIGA 可以通用而又灵活地去处理更多与任务相关的额外任务,而且还有一下优点:


  1. 参考人类编写 SQL 的步骤,对话文本到 SQL 任务被分解为多个子任务,允许主任务从中学习;

  2. 训练样本的构造格式与 T5 一致,可以最大限度地发挥预训练 T5 模型对目标任务的潜力;

  3. 统一的框架允许多个辅助任务的灵活调度。当应用于特定任务时,仅需在特定任务的标记数据中使用相同的训练目标对上面的预训练模型进行微调即可。


在预训练阶段,该研究整合了 Text-to-SQL 数据集 Spider 和对话 Text-to-SQL 数据集 SparC 和 CoSQL 的数据来训练 T5 模型。


微调阶段


在预训练阶段之后,该研究针对目标任务的标注数据,单纯使用 Text-to-SQL 任务来进一步微调模型。该研究在预测当前轮次的 SQL 时,会拼接之前轮次的预测 SQL,在此过程中,为了尽量克服多轮对话和生成中所带来的错误传递问题,该研究提出了 SQL 扰动的方案,对输入数据中的历史轮次 SQL,以 α 概率来进行扰动。SQL 语句的扰动主要以 β 的概率采样相应的 token,然后进行以下其一的扰动:


  • 用相同数据表中的列,来随机修改或者新增 SELECT 部分中的列;

  • 随机修改 JOIN 条件中的结构,比如交换两个表的位置;

  • 修改”*” 所有列为一些其他的列;

  • 交换”asc” 和”desc”。


上述的扰动是该研究在实验中统计发现最常见的一些错误传递导致的 SQL 生成错误情况,因此针对这些情况来进行扰动,降低模型关于这方面的依赖。


实验评估


评估数据集为多轮对话 Text-to-SQL:SparC 和 CoSQL。


评估指标为:


  • QM:Question Match,表示单轮问题中的生成的 SQL 与标注输出完全匹配的比例;

  • IM:Interaction Match,表示多轮对话中整个完整轮次所有生成的 SQL 与标注输出完全匹配的比例。


在表 1 的对比实验中,MIGA 在两个数据集上的 IM 分数,以及 CoSQL 的 QM 分数上,超过了目前最好的多轮对话 Text-to-SQL 模型。而且对比同类型的基于 T5 的方案,MIGA 分别在 IM 上提升了 7.0% 和 QM 上提升了 5.8%。


表 1 对比实验分析,第一部分为树模型,第二部分为基于预训练生成模型。


在表 2 的消融实验中,该研究对 MIGA 的两阶段训练过程中的几个任务进行了探索,同时证明了这些任务分别都会对目标任务有不同程度的提升。


表 2 针对 SparC 任务,分别去除各项任务或数据,在指标上都有所降低。


在实际的案例分析结果,MIGA 在生成的稳定性和正确性,对比基于 T5-3B 训练模型更好,可以看到 MIGA 在多表连接操作和列和表格的映射上要优于其他模型。在 Case#1 的 Question#2 中,T5-3B 模型不能为相对复杂的 JOIN 结构(两表连接)生成有效的 SQL,进而导致 Question#3 中更复杂的 JOIN 结构(三表连接)也预测错误。而 MIGA 准确地预测了 JOIN 结构,并较好地维持了之前的条件 t1.sex="f"。在 Case#2 中,T5- 3B 混淆了不同表中的多个列,并将 earnings 误认为是 people 表的列,而 MIGA 可以正确识别该列属于 poker_player 表,并将其链接至 t1。


表 3 案例分析。


结语


网易互娱 AI Lab 针对 Text-to-SQL 提出了一个基于 T5 的两阶段的多任务预训练模型:MIGA。在预训练阶段,MIGA 将 Text-to-SQL 任务分解出了额外三个子任务,并将其统一为序列到序列的生成范式,从而更好地激发预训练 T5 模型。并且在微调阶段引入了 SQL 扰动机制,降低多轮 Text-to-SQL 生成场景下的错误传递带来的影响。


未来,研究团队会进一步探索更多有效的策略来撬动超大语言模型的能力,并且探索更优雅更有效的方式来进一步克服因为错误传递而导致的效果降低问题。



© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
国际要闻简报,轻松了解天下事(03清华朱军团队开源UniDiffuser:首个基于Transformer的多模态扩散大模型【全程直播+回放】围术期TEE训练营(基础班)基于病例的高强度仿真模拟训练2023 春 祝姐妹们周末快乐!AAMAS2023|三思而后行:一个类人的用于情感对话生成的两阶段对话代理低能耗低时耗,中科院&香港大学团队使用新方法进行多任务学习的可穿戴传感器内储层计算NeurIPS 2022 | 重振PointNet++雄风!PointNeXt:改进模型训练和缩放策略审视PointNet++国际要闻简报,轻松了解天下事(03为黑五剁手暖暖场2023年人大432冲刺阶段的一些建议单块V100训练模型提速72倍!尤洋团队新成果获AAAI 2023杰出论文奖赠书|都2023年了,R语言可以这样学?《R语言编程—基于tidyverse》MIGA项目原作解读:基于生成式预训练语言模型T5的Text-to-SQL模型基于无标注网络驾驶视频,自动驾驶策略预训练新方法 | ICLR 2023使用 PowerFlex 在 Kubernetes 平台上部署 Microsoft SQL Server 大数据集群ICLR 2023 | PatchTST: 基于Transformer的长时间序列预测ICRA 2023 | CurveFormer:基于Transformer的3D车道线检测新网络56 核心,多任务性能提升 120%! 英特尔推出全新至强 W-3400/2400 工作站处理器简化版的肠镜检查​GENIUS: 根据草稿进行文本生成的预训练模型,可用于多种NLP任务的数据增强Eruope 2023加速训练定制化BERT,ExtremeBERT工具包助力轻松快速预训练仅剩一席|三周掌握Python, SQL, R, Excel, VBA等必备工具送新书!《Python深度学习基于Torch/TF(第2版)》,有ChatGPT拓展OFA-Chinese:中文多模态统一预训练模型哈工大讯飞联合实验室发布图文多模态预训练模型VLE基于预训练语言模型的可控文本生成转:2023 回国探亲(5)登顶对话式语义解析国际权威榜单SParC和CoSQL,全新多轮对话表格知识预训练模型STAR解读清华朱军团队开源UniDiffuser:首个基于Transformer的多模态扩散大模型!文图互生、改写全拿下!SQL能完成哪方面的计算?一文详解关系代数和SQL语法加州的老墨 – 62021/22年美本T50名校录取率大盘点,附2023Fall美本RD阶段申请放榜日期总览!来了来了,走了走了。。。重磅:抖音百万网红中东陈先生,海内外保镖安保服务TOP公司,为海外华人安全保驾护航CF-ViT:用于视觉Transformer的由粗到细的两阶段动态推理架构 | AAAI 2023何时起,“骰子”不读shǎi,改读tóu了?清华朱军团队开源首个基于Transformer的多模态扩散大模型,文图互生、改写全拿下佛州基韦斯特(Key West),小岛路景专注打无人机,土耳其推出GOKER多任务武器系统,使用仿制厄利孔炮
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。