系好安全带,这个RE模型非常快!
©PaperWeekly 原创 · 作者 | 宁金忠
单位 | 大连理工大学
研究方向 | 信息抽取
论文标题:
FastRE: Towards Fast Relation Extraction with Convolutional Encoder and Improved Cascade Binary Tagging Framework
IJCAI 2022
https://arxiv.org/pdf/2205.02490.pdf
https://github.com/seukgcode/FastRE
本文的研究任务为实体-关系三元组抽取任务。例如在金融领域中,从业者需要从海量的实时文本中快速构建知识图谱用来辅助金融决策。该领域对模型的效率有较高要求。但是目前已有的方法没有在模型的表现和性能之间取得较好的权衡。
作者摒弃了预训练语言模型中堆叠出现的 Transformer 结构,设计了一套全卷积的结构来提升模型的效率。与此同时,作者采用了膨胀卷积(dilated convolution)来提高模型的长距离依赖建模能力。另外,为了避免模型在层数变深时的梯度消失,作者在模型中添加了参加连接。
为了避免 cascade binary tagging framework 中的关系抽取冗余问题,作者在模型中利用了头实体的类别信息,采用预先定义的头实体的类型和其可能对应的关系构成了许多头实体-关系映射对(作者文中称为 type-relation 映射机制)。
Method
3.1 Convolutional Encoder
3.2 Improved Cascade Binary Tagger
3.3 loss函数
以头实体的 start tagging 为例,其表示形式如下:
损失函数的前半部分的使得每个正例的位置的得分相比动态阈值的得分等尽可能的大。损失函数的后半部分使得每个位置的动态阈值得分尽可能比负例的得分要大。
由于本文的方法依赖于实体类型的识别,三元组抽取中常用的 webnlg 数据集中没有实体类型,因此作者选用了 NYT10,NYT11,NYT24。
以往的关系三元组抽取模型重点关注三元组抽取性能而忽略了模型的效率。本文的作者另辟蹊径,专注于模型效率的提升。在保证模型三元组抽取性能尚可的情况下,作者采用近乎全卷积的结构,大大提升了模型的效率。这对于模型的落地应用具有重要意义。笔者在实测过程中,将 batch size 设置为 32 时,模型仅占用 1G 左右的显存,且 30epoch 以内,模型即可收敛。
更多阅读
#投 稿 通 道#
让你的文字被更多人看到
如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。
总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。
PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析、科研心得或竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。
📝 稿件基本要求:
• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注
• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题
• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算
📬 投稿通道:
• 投稿邮箱:[email protected]
• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者
• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿
△长按添加PaperWeekly小编
🔍
现在,在「知乎」也能找到我们了
进入知乎首页搜索「PaperWeekly」
点击「关注」订阅我们的专栏吧
微信扫码关注该文公众号作者