Redian新闻
>
EMNLP'22 Findings | 用于多标签少样本方面类别检测的标签驱动去噪框架

EMNLP'22 Findings | 用于多标签少样本方面类别检测的标签驱动去噪框架

每天给你送来NLP技术干货!



来自:南大NLP

01

研究动机


方面类别检测(简称ACD)是细粒度情感分析的一个重要子任务,旨在从一组预定义的方面类别中检测出评论句子中提到的方面类别。例如,给定句子虽然房间很贵,但是服务很好.,ACD 的任务是从句子中识别出两个方面类别,即服务价格。显然,ACD 属于多标签分类问题。

最近,随着深度学习的发展,研究者们提出了大量用于 ACD 任务的神经网络模型[1, 2, 3]。所有这些模型的性能在很大程度上依赖于足够的标记数据。但是,ACD 任务中方面类别的注释非常昂贵。有限的标记数据严重限制了神经网络模型的有效性。为了缓解这个问题,Hu等人[4]参考了小样本学习 (FSL) 的思路[5, 6,7 ,8],将 ACD任务形式化为小样本学习问题 (FS-ACD),即使用少量的监督数据来判评论句子所属的方面类别。

表1: 3-way 2-shot 元任务的示例

FS-ACD 遵循元学习范式[9],构建了一个 N-way K-shot 的元任务集合。表1显示了一个 3-way 2-shot 的元任务,它由一个支持集和一个查询集组成。支持集随机采样三个类(即方面类别),每个类随机选择两个句子(即实例)。元任务旨在借助少量标记的支持集来推断查询集中句子所属的方面类别。通过在训练阶段对不同的元任务进行采样,FS-ACD 可以在少样本场景中学习到很好的泛化能力,并且在测试阶段表现良好。为了执行 FS-ACD 任务,Hu等人[4]提出了一个基于注意力的原型网络Proto-AWATT。它首先利用注意力机制从支持集中的方面类别对应的句子中提取关键字,然后将它们聚合为证据为每个方面类别生成一个原型。然后,查询集利用原型生成相应的查询表示。最后,通过测量每个原型表示与相应查询表示之间的距离来进行类别预测。

尽管取得了很好的效果,但是我们发现噪声仍然是 FS-ACD 任务的关键问题。原因来自两个方面:一方面,由于缺乏足够的监督数据,以前的模型很容易捕捉到与当前方面类别无关的噪声词,这在很大程度上影响了生成原型的质量。如图1所示,以方面类别 food_food_meat_burger的原型为例。我们根据Proto-AWATT 的注意力权重突出显示其前 10 个单词。由于缺乏足够的监督数据,我们观察到模型倾向于关注那些常见但嘈杂的单词,例如“a”、“the”、“my”。这些嘈杂的词无法为每个方面生成具有代表性的原型,从而导致性能打折。另一方面,语义上接近的方面类别通常会产生相似的原型,这些语义接近的原型互为噪音,极大地混淆了分类器。据统计,数据集中近 25% 的方面类别对具有相似的语义,例如表 1 中的 food_food_meat_burger 和 food_mealtype_lunch。显然,这些语义相近的方面类别生成的原型会相互干扰并严重混淆 FS-ACD的检测结果。

图1:根据 Proto-AWATT 的注意力权重可视化方面类别 food_food_meat_burger 原型的前 10 个单词

为了解决上述问题,我们为 FS-ACD 任务提出了一种新颖的标签驱动去噪框架(LDF)。具体来说,对于第一个问题,方面类别的标签文本包含丰富的语义描述方面的概念和范围,例如方面类别restaurant_location的标签文本“restaurant和”location”,它们可以帮助注意力机制更好地捕捉与标签相关的单词。因此,我们提出了一种标签引导的注意力策略来过滤噪声词并引导 LDF 产生更好的方面原型。鉴于第二个问题,我们提出了一种有效的标签加权对比损失,它将支持集的类间关系合并到对比学习函数中,从而扩大了相似原型之间的距离。

02

贡献


1、据我们所知,我们是第一个利用方面类别的标签信息来解决FS-ACD任务中噪声问题的工作;

2、我们提出了一种新颖的标签驱动去噪框架(LDF),它包含一个标签引导的注意力策略来过滤嘈杂的单词并为每个方面生成一个有代表性的原型,以及一个标签加权的对比损失来避免为语义接近的方面类别生成相似的原型;

3、LDF 框架具有良好的兼容性,可以很容易地扩展到现有模型。在这项工作中,我们将其应用于两个最新的 FS-ACD 模型,Proto-HATT[8]  Proto-AWATT[4]。三个基准数据集的实验结果证明了我们框架的优越性。

03

背景


在这项工作中,我们基于 Proto-AWATT[4] 和 Proto-HATT[8] 模型抽象了一个通用的架构,它们都实现了令人满意的性能,因此被选为我们工作的基础。

给定一个包含 个单词的实例,我们首先通过查找嵌入表将其映射到单词序列中。然后,我们使用卷积神经网络 (CNN) 将单词序列编码为上下文表示。接下来,注意力层为实例中的每个单词分配一个权重。最终实例表示由下式给出:

之后,我们聚合类 n 的所有实例表示来生成原型表示:

在处理了支持集中的所有类之后,我们得到了 N 个原型表示。类似地,对于查询实例,我们首先利用注意力机制生成 N 个原型特定的查询表示。之后,我们计算每个原型与对应的原型特定查询表示之间的欧几里得距离 (ED)。最后,我们对负欧几里得距离进行归一化以获得原型的排名,并使用阈值来选择方面类别:

最终的训练目标是均方误差 (MSE) 损失:

04

解决方案


图 2 展示了 LDF 的整体架构,其中包含两个组件:标签引导的注意力策略和标签加权的对比损失。在标签信息的帮助下,前者可以更好地关注与方面类别相关的单词,从而为每个方面生成更准确的原型,后者利用支持集的类间关系避免生成相似的原型。

图2:标签驱动去噪框架(LDF)的整体架构

3.1 标签引导的注意力策略

由于缺乏足够的监督数据,公式1中的注意力权重通常会关注一些与当前类别无关的噪声词,导致原型变得不具有代表性。直觉上来说,每个类的标签文本都包含丰富的语义,可以为捕获方面类别相关的单词提供指导。因此,我们利用标签信息来解决上述问题并提出标签引导的注意力策略。

具体来说,我们首先计算标签文本与实例中每个单词的语义相似度来定位每个类的关键词:

在标签信息的约束下,相似度权重倾向于关注与标签文本高度相关的少量单词,这样可能会忽略其它有信息量的词。因此,我们将其作为注意力权重的补充,以生成更全面、更准确的注意力权重:

然后,为了重新获得注意力分布,注意力权重被重新归一化为:

最后,我们将方程1中的注意力权重替换为方程8中新的注意力权重,从而获得支持集中每个类的代表性原型。

3.2 标签加权的对比损失

如前所述,语义上接近的方面类别通常会在支持集中生成相似的原型,它们互为噪声并严重混淆分类器。

直观地说,一种可行且自然的方法是利用有监督对比学习,它可以将不同类别的原型推开如下:

然而,有监督对比学习并不能很好地解决我们的问题,因为它在负集中平等地对待不同的原型,而我们的目标是鼓励越相似的原型相距越远。例如,“food_food_meat_burger”在语义上比“room_bed”更接近“food_mealtype_lunch”。因此,“food_food_meat_burger”在负集中应该比“room_bed”更远离“food_mealtype_lunch”。

为了实现这一目标,我们再次利用标签信息并提出将类间关系合并到有监督的对比学习中,以自适应地区分负集中的相似原型:

其中 wmn 表示负集中不同方面类别之间的 cos 相似度,计算如下:

在标签加权的对比损失模块中,最终的损失函数为:

05

实验


5.1 实验设置

我们在三个公开的数据集FewAsp(single)FewAsp(multi)  FewAsp上进行了实验,它们共享相同的 100 个方面类别,其中 64 个方面用于训练,16 个方面用于验证,20 个方面用于测试。我们使用 Macro-F1 和 AUC 分数作为评估指标,并且 5-way 设置和 10-way 设置中的阈值分别设置为0.3和0.2。为了验证 LDF 框架的优越性,我们选择了两个性能最好的主流模型作为我们工作的基础,即Proto-HATT[8] 和Proto-AWATT[4]。换句话说,我们将 LDF 集成到Proto-HATT Proto-AWATT中,得到最终模型LDF-HATTLDF-AWATT

5.2 主实验

从表2可以看出,LDF-HATT LDF-AWATT 在三个数据集上的性能始终优于其基础模型。值得一提的是LDF-HATT  Macro-F1  AUC 分数上最多获得了 5.62%  1.32% 的提升。相比之下, LDF-AWATT 最多比Proto-AWATT  3.17%  1.30%。这些结果表明我们的框架具有良好的兼容性。事实上,LDF-AWATT  Macro-F1 在大多数情况下提高了大约 2%,而LDF-HATT Macro-F1 平均提高了大约 3% 。这与我们的预期一致,因为原始Proto-AWATT 具有更强大的性能。 LDF-HATT LDF-AWATT FewAsp(multi) 数据集上比在FewAsp(single) 数据集上表现更好。一个可能的原因是FewAsp(multi) 数据集中的每个类包含更多的实例,这使得LDF-HATT LDF-AWATT 在多标签分类中可以生成更准确的原型。

2:主实验结果

5.3 消融实验

在不失一般性的情况下,我们选择 LDF-AWATT 模型进行消融实验,以研究 LDF 中单个模块对模型整体效果的影响。标签引导的注意力策略简称LAS,­标签加权的对比损失简称LCL,有监督的对比学习简称SCL。根据表 报告的结果,我们可以观察到以下几点:

3:消融实验结果

1、与基础模型Proto-AWATT相比, Proto-AWATT+LAS在三个数据集上取得了具有竞争力的性能,这验证了利用标签信息为每个类生成具有代表性原型的合理性;

2、将 LCL 集成到 Proto-AWATT+LAS后,LDF-AWATT 实现了 state-of-the-art 的性能,这表明 LCL 有利于区分相似的原型; 

3、LAS 比 LCL 更有效。一个可能的原因是注意力机制是生成原型的核心因素。因此,它对我们的框架贡献更大;

4、Proto-AWATT+SCL 在FewAsp 数据集上的性能略好于Proto-AWATT,但它们的结果远低于 Proto-AWATT+LCL,这些结果进一步凸显了LCL的有效性; 

5、将类间关系集成到 Proto-AWATT+SCL后, Proto-AWATT+LCL取得了更好的性能,这表明类间关系在区分相似原型方面起着至关重要的作用;

06

案例分析


为了更好地理解我们框架的优势,我们从FewAsp 数据集中选择一些样本进行案例研究。具体来说,我们随机抽取 5 个类,然后为这5个类抽取 50 次 5-way 5-shot 元任务。最后对于每个类,我们得到 50 个原型向量。

图4:可视化Proto-AWATT、Proto-AWATT+LAS 和 LDF-AWATT 原型表示

6.1 Proto-AWATT vs. Proto-AWATT+LAS

如图4(a) 和图4(b) 所示,我们可以看到Proto-AWATT+LAS 学习到的每个类的原型表示显然比Proto-AWATT 更集中。这些观察表明Proto-AWATT+LAS确实可以为每个类生成更准确的原型。

6.2 Proto-AWATT+LAS vs. LDF-AWATT

如图4(b) 和 图4(c) 所示,将 LCL 集成到Proto-AWATT+LAS后,LDF-AWATT 学习到的 food_mealtype_lunch food_food_meat_burger 的原型表示比 Proto-AWATT+LAS 更分离。 这表明LCL确实可以区分相似的原型。

07

错误分析


为了分析我们框架的局限性,我们通过LDF-AWATT 从FewAsp 数据集中随机抽取 100 个错误案例,并将它们大致分为两类。表4显示了每个类别的比例和一些代表性示例。主要类别是”Complex”,主要包括需要深入理解的示例。如示例(1)所示,与 restaurant_location 相关的单词片段“Chandler Downtown Serrano”在训练集中出现的次数不超过 5 次,这些表达的低频率使得我们的模型难以捕捉到它们的模式,因此给出正确的预测确实具有挑战性。第二类是”No obvious clues”,主要包括信息不足的例子。如示例(2)所示,句子很短,无法提供足够的信息来预测真实标签。

表4:LDF-AWATT模型的错误样例

08

总结


在本文中,我们提出了一种新颖的标签驱动去噪框架(LDF)来缓解 FS-ACD 任务的噪声问题。具体来说,我们设计了两个合理的方法:标签引导的注意力策略和标签加权的对比损失,旨在为每个类生成更好的原型并区分相似的原型。大量实验的结果表明,我们的框架 LDF 与其他最先进的方法相比实现了更好的性能。

论文链接:

https://arxiv.org/pdf/2210.04220.pdf

代码链接:

https://github.com/1429904852/LDF

09

参考文献


[1]Xinjie Zhou, Xiaojun Wan, and Jianguo Xiao. 2015. Representation learning for aspect category detection in online reviews. In Proceedings of the TwentyNinth AAAI Conference on Artificial Intelligence, January 25-30, 2015, Austin, Texas, USA, pages 417– 424.

[2]Kim Schouten, Onne van der Weijde, Flavius Frasincar, and Rommert Dekker. 2018. Supervised and unsupervised aspect category detection for sentiment analysis with co-occurrence data. IEEE Trans. Cybern., 48(4):1263–1275.

[3]Mengting Hu, Shiwan Zhao, Li Zhang, Keke Cai, Zhong Su, Renhong Cheng, and Xiaowei Shen. 2019. CAN: constrained attention networks for multi-aspect sentiment analysis. In EMNLP-IJCNLP 2019, Hong Kong, China, November 3-7, 2019, pages 4600–4609.

[4]Mengting Hu, Shiwan Zhao, Honglei Guo, Chao Xue, Hang Gao, Tiegang Gao, Renhong Cheng, and Zhong Su. 2021. Multi-label few-shot learning for aspect category detection. In ACL/IJCNLP 2021, pages 6330–6340.

[5]Sachin Ravi and Hugo Larochelle. 2017. Optimization as a model for few-shot learning. In 5th International Conference on Learning Representations, ICLR 2017, Toulon, France, April 24-26, 2017, Conference Track Proceedings.

[6]Chelsea Finn, Pieter Abbeel, and Sergey Levine. 2017. Model-agnostic meta-learning for fast adaptation of deep networks. In Proceedings of the 34th International Conference on Machine Learning, ICML 2017, pages 1126–1135.

[7]Jake Snell, Kevin Swersky, and Richard S. Zemel. 2017. Prototypical networks for few-shot learning. In Advances in Neural Information Processing Systems 30: Annual Conference on Neural Information Processing Systems 2017, pages 4077–4087.

[8]Tianyu Gao, Xu Han, Zhiyuan Liu, and Maosong Sun. 2019. Hybrid attention-based prototypical networks for noisy few-shot relation classification. In The Thirty-Third AAAI Conference on Artificial Intelligence, AAAI 2019, Honolulu, Hawaii, USA, January 27 - February 1, 2019, pages 6407–6414.

[9]Oriol Vinyals, Charles Blundell, Tim Lillicrap, Koray Kavukcuoglu, and Daan Wierstra. 2016. Matching networks for one shot learning. In Advances in Neural Information Processing Systems 29: Annual Conference on Neural Information Processing Systems 2016, pages 3630–3638.



📝论文解读投稿,让你的文章被更多不同背景、不同方向的人看到,不被石沉大海,或许还能增加不少引用的呦~ 投稿加下面微信备注“投稿”即可。

最近文章

COLING'22 | SelfMix:针对带噪数据集的半监督学习方法

ACMMM 2022 | 首个针对跨语言跨模态检索的噪声鲁棒研究工作

ACM MM 2022 Oral  | PRVR: 新的文本到视频跨模态检索子任务




投稿或交流学习,备注:昵称-学校(公司)-方向,进入DL&NLP交流群。
方向有很多:机器学习、深度学习,python,情感分析、意见挖掘、句法分析、机器翻译、人机对话、知识图谱、语音识别等
记得备注~

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
EMNLP 2022 | LiteVL:具有增强时空建模的高效视频-语言学习一文看完澜舟科技被EMNLP'22录用的三篇论文2022 Luxury Listings · Hurun Outstanding American Real Estate​GENIUS: 根据草稿进行文本生成的预训练模型,可用于多种NLP任务的数据增强澳洲移民局公布移民优先审批职业和类别!境外优先,医护、教师等类别优先!NAACL'22 Findings | 社交媒体上的抱怨强度分析看看当下政治局内哪位真实学历最低?就最有可能成为王储老舍家属的态度, 实际上等于是老舍投湖的最后一“推”, 被假装成了“公案” (ZT)EMNLP 2022 | 基于全局句向量的分布外文本检测颠覆性创新:郑永唐/欧阳松应/姜世勃研发成功一个作用于多肽药物靶点—HR1的高效广谱抗新冠候选疫苗EMNLP 2022大会正式落幕,最佳长论文、最佳短论文等奖项公布EMNLP 2022最佳长论文、最佳短论文等奖项公布!EMNLP 2022 论文预讲会!41场精彩报告抢先看!EMNLP 2022 | 主会长文论文分类整理AAAI 2023|基于多模态标签聚合的视频检索模型TABLE,多项SOTAEMNLP'22 | 基于结构统一M叉编码树的数学问题求解器EMNLP 2022奖项揭晓,最佳论文这脑洞绝了!NeurIPS 2022 | PointTAD: 基于稀疏点表示的多类别时序动作检测框架微信推出自研NLP大规模语言模型WeLM:零/少样本即可完成多种NLP任务,匹敌大其25倍的模型EMNLP 2022 | 统一指代性表达的生成和理解LG 22'' Class Full HD LED Monitor (21.5'' diagonal)EMNLP 2022 最佳论文揭晓!这脑洞绝了….EMNLP 2022 | 基于视角转换的反事实数据增强方法一文了解复旦大学NLP实验室的14篇EMNLP 2022长文内容EMNLP 2022 | 北大提出基于中间层特征的在线文本后门防御新SOTA[电脑] bequiet!SILENT WINGS 4和SILENT WINGS PRO 4风扇开箱测试EMNLP 2022 | 知识图谱上的问题生成:用元学习建模不同子图2022 07 瑞士 ~ Wengen 徒步篇仅需10%参数量即超越SOTA!浙大、字节、港中文联合提出「类别级位姿估计」任务新框架|CoRL2022EMNLP'22 | What and how?模型的学习内容和推理方式探究沈周丨飘然世外的神仙中人北非后花园丨摩洛哥 卡萨布兰卡+马拉喀什+瓦尔扎扎特+撒哈拉沙漠+非斯+舍夫沙万 9天7晚游 CMNCMN9我赞美我们人类的大脑EMNLP 2022 | SentiWSP: 基于多层级的情感感知预训练模型EMNLP 2022 | 稠密检索新突破:华为提出掩码自编码预训练模型
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。