信息抽取 | 周杰博士后论文荣获COLING'22 Outstanding Paper
每天给你送来NLP技术干货!
来自:FudanNLP
国际计算语言学大会 (Inteational Conference on Computational Linguistics, COLING),是自然语言处理和计算语言学领域的重要国际学术会议。
该论文针对复杂的结构化抽取任务(以事件抽取为例),设计统一模型来迁移不同格式数据集的知识,在多个事件抽取的数据集上取得了非常显著的提升。
论文链接:
https://aclanthology.org/2022.coling-1.173.pdf (点击 阅读全文 获取)
代码链接:
https://github.com/zhangqi-here/UnifiedEAE
中文摘要
近年来,基于深度学习的结构化抽取任务(如事件抽取)取得了巨大成功。然而目前大部分工作针对不同的数据集设定特定的模型结构。同时,由于结构化抽取任务的复杂性,标注空间较大,标注规范不统一,标注一个新的数据集往往是费时费力的。为此,本论文提出了一个基于变分信息瓶颈的多格式迁移模型来迁移不同格式的结构化数据集的知识。首先,作者提出共享-特定的提示模型用于从不同格式数据集学习格式特定和共享的表示。该模型可以使用统一的框架对不同格式的结构化数据集进行抽取。再者,变分信息瓶颈被用来约束模型学习格式共享的表示。最终,在三个标准数据集上取得了 SOTA 的结果。
第一作者简介
COLING'22 | SelfMix:针对带噪数据集的半监督学习方法
ACMMM 2022 | 首个针对跨语言跨模态检索的噪声鲁棒研究工作
▼点击"阅读原文"获取论文原文。
微信扫码关注该文公众号作者
戳这里提交新闻线索和高质量文章给我们。
来源: qq
点击查看作者最近其他文章