Redian新闻
>
COLING 2022 | 融合自适应机制与自训练框架的无监督文本顺滑方法

COLING 2022 | 融合自适应机制与自训练框架的无监督文本顺滑方法

公众号新闻

每天给你送来NLP技术干货!


论文名称:Adaptive Unsupervised Self-training for Disfluency Detection
王重元,王一轩,王少磊,车万翔*
王一轩
论文链接:https://aclanthology.org/2022.coling-1.632.pdf
SCIR

摘要

文本顺滑检测任务(Disfluency Detection)主要针对口语风格文本中存在的冗余重复语气词等不流畅现象进行检测和纠正。近年来,有监督深度学习方法已经在文本顺滑检测任务上取得很大进展,但大多数现有的方法严重依赖人工标注的数据集,这导致有监督方法应用在真实场景下成本很高。同时也有学者尝试采用自训练的方式来缓解这一问题,其在大量无标注数据上使用各种启发式方法来选择更可靠的伪标签样本进行迭代训练,在无监督领域取得了一定提升,但在自训练阶段中存在的选择偏差和错误累计问题严重影响了最终模型的性能。本文提出了一种基于Re-weighting 机制的自适应自训练框架,根据每个样本的置信分配权重来解决上述存在的两个问题。通过在自训练过程中对每个候选样本赋予自适应权重进行训练,该自适应框架不仅可以整合传统启发式方法忽略的样本,还能减轻噪声样本的影响。除此之外,本文还提出了一种基于对比的句对语法判别器来辅助提高自训练框架的性能。在英文标准数据集 Switchboard 以及多个跨领域数据集的实验结果表明,本文提出的优化方法性能相较当前无监督模型 SOTA 提升了 2.3 个点,且具有一定的泛化迁移能力。同时,作为无监督方法与当前的有监督方法 SOTA 也是可比的。

1.任务背景

文本顺滑任务

得益于自动语音识别技术(ASR)的不断发展,对于一些实时性要求较高的任务(如机器翻译、任务型对话等),相较于传统文字输入,人们更倾向于使用方便快捷的语音输入;但口语语音信号的ASR输出通常包含很多天然的不流利元素,例如重复、修正、冗余等语言现象,这些都是口语风格输入所不可避免的问题。这些口语文本中不流利的噪声单词会极大的影响输出句子整体的可读性以及语义,进而对后续的文本处理任务(如:解析、机器翻译、摘要等下游任务)造成一定的阻碍。在此实际应用背景下,文本顺滑任务便应运而生。

图1 文本顺滑任务示例

(RM=Reparandum, IM=Interregnum, RP=Repair)

所谓的文本顺滑任务[1],就是对ASR模型输出的口语风格文本进行处理,去除掉其中的不流利元素(即噪声单词),从而使文本表达更流畅,提高后续文本处理任务的数据质量,最终达到提升下游任务模型性能的目的。

随着深度学习方法的不断发展,神经网络凭借其强大的建模能力,在文本顺滑任务上带来了很大的提升;2016年Wang率先提出将端到端神经网络模型用于文本顺滑的方法[2],该方法将文本顺滑任务作为序列标注进行处理,得益于大规模预训练模型对语义信息的提取,在标准数据集上取得了很好的效果;之后的研究者也在有监督方法上不断进行改进与创新,Zayats针对有监督方法存在的问题尝试了多种解决方法,其通过使用LSTM来建模长短期依赖[3],同时融入了规则匹配来提高模型性能,缓解深度学习的不稳定性[4]。

动机

本文提出基于Re-weighting的自适应Self-training框架的主要动机旨在解决先前Wang[5]基于自训练的文本顺滑方法中存在的两个问题(其方法流程如图2所示):

1)选择偏差问题:先前筛选教师模型标注伪数据的方法是训练一个句子级别的判别器直接进行筛选。该模型采用伪数据训练得到,其偏置很容易通过硬性选择直接影响自训练流程;

2)错误累计问题:该框架下的教师模型也采用伪数据训练得到,其标注的伪数据可能存在一定的错误,该错误会伴随伪标签直接影响学生模型,随自训练不断累计;

本文通过将re-weighting机制融入self-training流程中,使得学生模型能够按不同权重在伪标签数据集上训练。对于语法判别器以及教师模型判断有误的样例,其标签置信度通常较低,通过re-weighting机制能够一定程度上缓解选择偏差和错误累计的问题;同时我们提出了一种更强的基于对比的语法判别器,根本上提高判别器的准确率,缓解选择偏差问题。

图2 先前基于自训练的文本顺滑方法示意图

2.主要方法

主要架构

针对上述提到的问题,我们提出了一种基于Re-weighting机制的自适应自训练框架,其迭代流程如图3所示。首先通过构造伪数据得到教师模型与语法判别模型用于自训练迭代;在每轮自训练流程中:1)使用教师模型标注采样的训练集,得到伪标签训练集,保留其对每个伪标签的置信信息;2)使用语法判别模型筛选判别伪标签训练集,保留其对每个样本的判别输出;4)根据词级别置信信息以及句子级别判别信息赋予每个样本一个权重,在采样出的全体训练集上按权重训练得到学生模型;5)使用学生模型替代教师模型,如此迭代。

图3 基于Re-weighting机制的自适应自训练框架示意图 

Re-weighting部分细节

根据教师模型打标置信以及语法判别模型得分来计算权重的细节如图4所示。

图4 Re-weighing机制原理图

具体实现中我们将温度机制处理后的词级别得分与句子级别得分直接作用在训练目标各个token的交叉熵上:

通过温度机制可以一定程度上随自训练流程调节句子级别与词级别权重的比例,其中T随自训练流程不断降低:

训练初期教师模型能力较弱,其置信度可信度较低,采用高温使得词级别得分更加扁平,以句子级别判别得分为主;随着自训练迭代教师模型能力增强,采用低温使得词级别得分区分度更大,能有效缓解低置信错误标注对训练流程的影响,不断退火保证训练的稳定性。

基于对比的语法判别器

除了引入Re-weighting机制,本文用一个性能更强的基于对比的语法判别器替换了原先系统中的语法判别器,其工作原理如图5所示。其本质上还是一个二分类任务,只是将输入的格式从原本的标注正确的部分文本变为了修改前后文本的句对形式,这样能使模型分析修改前后的具体差异,从文本顺滑的角度而非语法结构的角度进行更有针对性的判别。

图5 基于句对的语法判别器示例图

3.实验部分

数据集&评测指标

English Switchboard (SWBD)[6]是用于文本顺滑检测最大的(1.73×105句子用于训练) 标准语料库。我们使用英语Switchboard作为主实验数据集。

除此之外,为了验证我们方法的可迁移性我们还收集了三个跨领域的文本顺滑数据集:

  • CallHome(家庭成员间通话记录)
  • SCOTUS(转录最高法院法官和律师之间的口头辩论)
  • FCIC(两次从金融危机调查委员会转录的听证会)。

参照前人工作,我们采用序列标注任务的P、R、F1指数作为评价模型的指标。

主实验结果

主实验结果如表1所示,我们在SWBD上相比baseline(不采用Re-weightin机制的自训练框架)有2.3个点的提升,同时距离有监督模型的距离又更近一步。

表1 SWBD主实验结果

跨领域实验结果

跨领域实验结果如表2所示,未经任何finetune,在新闻领域自训练得到的模型在CallHome、SCOTUS、FCIC三个跨领域数据集上相比baseline依然有很大提升。这说明我们的优化模型并非过度拟合当前数据集,而是具有一定可迁移性的。

表2 跨领域实验结果

消融实验结果

如表3、4、5所示,我们针对句对语法判别器(CGC)与原先单句语法判别器(SGC)、Re-weighting机制(Re-weight)、词级别得分(LCR)、句子级别得分(CGC)以及温度超参γ进行了消融实验,实验结果表明Reweighting机制以及句对语法判别器均能给自训练框架带来一定程度的提升,且这个提升是正交的。

表3 句对语法判别器消融实验 

表4 Re-weighting机制消融实验

表5 温度机制消融实验

图6为在构造二分类伪数据测试集上单句语法判别器(SGC)与基于对比的句对语法判别器(CGC)的ROC曲线,CGC相比SGC能够看到根据伪标签修改前后的句子差异,从而对打标结果做出更准确的判断。

图6 SGC与CGC判别器的ROC曲线

4.总结

在这项工作中,我们提出了一种基于Re-weighting的自适应无监督训练框架来更好的解决文本顺滑任务。我们通过引入词级别置信与句子级别判别信息来赋予每个样本不同权重进行学习,同时采用更高效的基于对比的句对语法判别器,实现了一个更鲁棒、性能更好的无监督文本顺滑系统。实验表明,我们的优化方案能有效缓解选择偏差和错误累计的问题,在SWBD以及多个跨领域数据集上均有所提升。

参考文献

[1] 吴双志,张冬冬,周明.基于自注意力机制的口语文本顺滑算法[J].智能计算机与应用,2019,9(06):188-192.

[2] Shaolei Wang,Wanxiang Che,and Ting Liu. A neural attention model for disfluency detection. COLING 2016: Technical Papers.

[3] Vicky Zayats, Mari Ostendorf, and Hannaneh Hajishirzi. Disfluency detection using a bidirectional lstm. arXiv preprint arXiv:1604.03209. 2016.

[4] Vicky Zayats and Mari Ostendorf. Robust cross-domain disfluency detection with pattern match net works. arXiv preprint arXiv:1811.07236. 2018.

[5] Shaolei Wang, Zhongyuan Wang, Wanxiang Che, et al. Combining self-training and self-supervised learning for unsupervised disfluency detection. EMNLP 2020.

[6] J. J. Godfrey, E. C. Holliman and J. McDaniel. SWITCHBOARD: telephone speech corpus for research and development. ICASSP 1992.


:刘 铭

 



📝论文解读投稿,让你的文章被更多不同背景、不同方向的人看到,不被石沉大海,或许还能增加不少引用的呦~ 投稿加下面微信备注“投稿”即可。

最近文章

COLING'22 | SelfMix:针对带噪数据集的半监督学习方法

ACMMM 2022 | 首个针对跨语言跨模态检索的噪声鲁棒研究工作

ACM MM 2022 Oral  | PRVR: 新的文本到视频跨模态检索子任务

统计机器学习方法 for NLP:基于CRF的词性标注

统计机器学习方法 for NLP:基于HMM的词性标注




点击这里进群—>加入NLP交流群

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
最新综述:视频数据的无监督域适应复盘万代,探究日本顺逆周期下的潮玩行业起伏NeurIPS 2022 | 香港理工提出OGC:首个无监督3D点云物体实例分割算法AACO College Panel: From High School to College​TOIS 2022 | 面向用户和商品双侧流行性偏差的自适应公平推荐方法AAAI 2023 | 超越SOTA 3.27%,上交大等提出自适应本地聚合新方法基于无监督预训练的语音识别技术落地实践 火山语音表示有话要说新作速览|本土化语言与自然生态适应:西藏自然科学博物馆 / 山鼎设计OpenFold更多细节公开:重新训练AlphaFold2对其学习机制和泛化能力产生新见解NIPS 2022 | 文本图片编辑新范式:单个模型实现多文本引导图像编辑Vaccines | HPV作用机制与最新研究进展翡翠鸟木兰花令 球道吟2022 USNEWS发布美国薪酬最高行业TOP25自监督为何有效?243页普林斯顿博士论文「理解自监督表征学习」,全面阐述对比学习、语言模型和自我预测三类方法NeurIPS 2022 | 文本图片编辑新范式:单个模型实现多文本引导图像编辑磷酸铁锂和三元并驾齐驱,未来正极材料突破来自对高镍材料未知反应机制的理解 | 产学研开放麦第一期VideoMAE:简单高效的视频自监督预训练新范式|NeurIPS 2022COLING 2022 | 小米AI实验室:更有效的鲁棒性神经机器翻译训练方法Journal of Medical Virology|彭宜红课题组揭示肠道病毒2A蛋白ST125磷酸化是病毒宿主适应性的新机制公开课预告:视觉AI算法的自训练优化及流媒体服务实践机器学习模型以出色的精度进行有机反应机理分类粤来粤显得“佬”居然可以是两笔不同的账。。。。DALL-E和Flamingo能相互理解吗?三个预训练SOTA神经网络统一图像和文本学中文视听99篇《美丽的安大略湖》天赋“易昺(bǐng)”,创造历史!有效融合语言模型、图神经网络,文本图训练框架GLEM实现新SOTA微型CRISPR-Cas12f基因编辑系统:机制与研发 | 合成生物学专家说NeurIPS 2022 | 文本图片编辑新范式,单个模型实现多文本引导图像编辑2023年的投资关键!学习顶尖交易框架的机会来了NeurIPS 2022 | 如何正确定义测试阶段训练?顺序推理和域适应聚类方法ECCV 2022 | 半监督学习的隐秘角落: 无监督的数据选择性标注 USLECCV 2022 Oral | ​Language Matters:面向场景文字检测和端到端识别的弱监督的视觉-语言预训练方法Nature子刊:精准预测分子性质和药物靶标的无监督学习框架开源模型、单卡训练,带你了解爆火的文本指导音频生成技术AudioLDM
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。