Redian新闻
>
文档智能多模态预训练模型LayoutLMv3:兼具通用性与优越性

文档智能多模态预训练模型LayoutLMv3:兼具通用性与优越性

科技


(本文阅读时间:14分钟)


编者按:企业数字化转型中,以文档、图像等多模态形式为载体的结构化分析和内容提取是其中的关键一环,快速、自动、精准地处理包括合同、票据、报告等信息,对提升现代企业生产效率至关重要。因此,文档智能技术应运而生。过去几年,微软亚洲研究院推出了通用文档理解预训练 LayoutLM 系列研究成果,并不断优化模型对文档中文本、布局和视觉信息的预训练性能。近期发表的最新的 LayoutLM 3.0 版本,在以文本和图像为中心的任务上有了更加出色的表现,让文档理解模型向跨模态对齐迈出一大步!


随着各行各业的数字化转型,涵盖表单、票据、邮件、合同、报告、论文等的电子文档数量持续增长。电子文档包含大量与行业相关的图像和文本信息,人工处理这些大量的信息耗时长、成本大。电子文档的自动识别、理解和分析技术对提高个人或企业的生产力十分重要,因此文档智能技术应运而生。文档智能利用计算机自动识别、理解及分析电子文档,大大提升了个人和企业处理电子文档的生产力,是自然语言处理和计算机视觉交叉领域的一个重要研究方向。


图1:文档智能任务示例:表单理解、文档布局分析


虽然为特定任务设计的深度学习方法针对某一项文档理解任务能取得较好的性能,但这些方法通常依赖于有限的标注数据,而对于文档理解任务尤其是其中的信息抽取任务来说,获取详细的标注数据昂贵且耗时。为此,微软亚洲研究院的研究人员将目光转向了那些被忽视的无标注数据上,通过自监督预训练技术来利用现实生活中大量的无标注数据。由于近年来预训练在深度学习领域被广泛应用,所以该技术在文档智能领域也取得了显著进展。经过预训练的文档智能模型可以解析并提取文档的各类信息,这对文档智能的学术研究和生产应用都有重要意义。


LayoutLMv3:距离文档理解跨模态对齐又进一步



现实生活中的文档不仅有大量的文本信息,同时也包含丰富的布局和视觉信息,并且这三种模态在文档中有天然的对齐特性。如何对这些文档进行建模并且通过训练达到跨模态对齐是一个重要的研究课题。对此,微软亚洲研究院在文档智能领域进行了诸多探索,推出了通用文档理解预训练 LayoutLM 系列研究成果。这些成果不仅在学术界受到了广泛关注和认可,在工业界也得到了广泛应用,如微软 Azure 认知服务中的表单识别器(Form Recognizer)等。


  • LayoutLM——通过将文本和布局进行联合预训练,在多种文档理解任务上取得了显著提升。

  • LayoutLMv2——通过将视觉特征信息融入到预训练过程中,大大提高了模型的图像理解能力。

  • LayoutXLM——基于 LayoutLMv2 的模型结构,通过使用53种语言进行预训练,拓展了 LayoutLM 的多语言支持。


如今,微软亚洲研究院又提出了新一代的文档理解预训练模型 LayoutLMv3通过简单的模型架构和统一的预训练目标,大大简化了模型设计,增强了下游任务的易用性。研究员们分别在5000万张中文和1100万张英文文档图像上预训练了 LayoutLMv3 模型,以满足广大中英文用户的需求。LayoutLMv3 在以文本为中心的任务中(如表单理解、小票理解和文档视觉问答)和在以图像为中心的任务中(如文档图像分类和文档布局分析)均有出色表现。


相关论文被计算机多媒体领域顶会 ACM Multimedia 2022 接收为 Oral Presentation(口头报告论文),代码及模型均已开源。(论文及代码链接,请见文末)


LayoutLMv3 以统一的文本和图像掩码建模目标来预训练多模态模型



自监督学习利用大量无标注数据,在表征学习中取得了快速进展。在自然语言处理研究中,BERT 首先提出了“掩码语言建模”(Masked Language Modeling, MLM)的自监督预训练方法,通过随机遮盖文本中一定比例的单词,并根据上下文重建被遮盖的单词来学习具有上下文语义的表征。虽然大多数用于文档智能的多模态预训练模型在语言模态上使用了 MLM,但它们在图像模态的预训练目标有所不同。例如,有的模型目标是重建密集的图像像素或是重建连续的局部区域特征,这些方法倾向于学习嘈杂的细节,而不是高层结构(如文档布局)。并且,图像和文本目标的粒度不同进一步增加了跨模态对齐学习的难度,而跨模态对齐学习对多模态表示学习非常关键。


为了克服文本和图像在预训练目标上的差异,促进多模态表征学习,微软亚洲研究院的研究员们提出了 LayoutLMv3,以统一的文本和图像掩码建模目标来预训练多模态模型,即 LayoutLMv3 学习重建语言模态的遮盖词 ID,并对称地重建图像模态的遮盖图像块 ID


图2:关于图像表示方式和预训练目标的比较


此外,对于文档来说,每个文本词都对应着一个图像块。为了学习这种跨模态的对齐关系,研究员们还提出了一个词块对齐预训练目标,通过预测一个文本词的对应图像块是否被遮盖,来学习这种语言——图像细粒度对齐关系。


LayoutLMv3 模型架构:直接利用文档图像的图像块,节省参数并避免区域标注



在模型架构设计上,LayoutLMv3 不依赖复杂的 CNN 或 Faster R-CNN 网络来表征图像,而是直接利用文档图像的图像块,从而大大节省了参数并避免了复杂的文档预处理(如人工标注目标区域框和文档目标检测)简单的统一架构和训练目标使 LayoutLMv3 成为通用的预训练模型,可适用于以文本为中心和以图像为中心的文档 AI 任务。


图3:LayoutLMv3 的架构和预训练目标


微软亚洲研究院在五个数据集中评估了预训练的 LayoutLMv3 模型,包括以文本为中心的数据集:表单理解 FUNSD 数据集,票据理解 CORD 数据集,文档视觉问答 DocVQA 数据集;以及以图像为中心的数据集:文档图像分类 RVL-CDIP 数据集,文档布局分析 PubLayNet 数据集。实验结果表明,LayoutLMv3 在这些数据集上以更少的参数达到了更优的性能。


LayoutLMv3 还应用了文本——图像多模态 Transformer 架构来学习跨模态表征。文本向量由词向量、词的一维位置向量和二维位置向量相加得到。文档图像的文本和其相应的二维位置信息(布局信息)则利用光学字符识别(OCR工具抽取。因为文本的邻接词通常表达了相似的语义,LayoutLMv3 共享了邻接词的二维位置向量,而 LayoutLM 和 LayoutLMv2 的每个词则用了不同的二维位置向量。


图像向量的表示通常依赖于 CNN 抽取特征图网格特征或 Faster R-CNN 提取区域特征,这些方式增加了计算开销或依赖于区域标注。因此,研究员们将图像块经过线性映射获得图像特征,这种图像表示方式最早在 ViT 中被提出,计算开销极小且不依赖于区域标注,有效解决了以上问题。具体来说,首先将图像缩放为统一的大小(例如224x224),然后将图像切分成固定大小的块(例如16x16),并通过线性映射获得图像特征序列,再加上可学习的一维位置向量后得到图像向量。


LayoutLMv3 通过三个预训练目标以自监督的方式学习多模态表示



  1. 掩码语言建模(Masked Language Modeling, MLM。为了利于模型学习布局信息与文本和图像之间的对应关系,该任务随机遮盖30%的文本词向量,但保留对应的二维位置(布局)信息。类似 BERT 和 LayoutLM,模型目标是根据未被遮盖的图文和布局信息还原文本中被遮盖的词。


  2. 掩码图像建模(Masked Image Modeling, MIM。为了鼓励模型从文本和图像的上下文信息推测图像信息,该任务随机遮盖了约40%的图像块。类似 BEiT,模型目标是根据未被遮盖的文本和图像的信息还原被遮盖的图像块经过离散化的 ID。


  3. 词块对齐(Word-Patch Alignment, WPA。对于文档来说,每个文本词都对应着一个图像块。由于前两个任务随机遮盖了部分文本词和图像块,模型无法显式地学习这种文本词和图像块之间的细粒度对齐关系。该目标通过显式地预测一个文本词的对应图像块是否被掩盖来学习语言和视觉模态之间的细粒度对齐关系。


实验及结果



为了学习各种文档任务的通用表示,LayoutLMv3 的预训练数据集是 IIT-CDIP,包含大约1100万张扫描文档图像。微软亚洲研究院训练了 BASE、LARGE 两种规模的模型,参数量分别是133M、368M。


1.  微调多模态任务:远超 SOTA


研究员们在四个多模态任务上对 LayoutLMv3 进行了微调:

(1)表单理解任务对表单的文本内容进行序列标注。FUNSD 是一个文档扫描表单理解数据集,包含199个文档,有9,707个语义实体的标注。FUNSD 数据集的语义实体标签任务旨在为每个语义实体分类为“问题”、“答案”、“标题”或“其他”中的一个。

(2)票据理解任务需要提取票据信息,对每个词进行语义标签分类。该任务的数据集是 CORD,它包含1,000张收据,在4个类别下定义了30个语义标签。

(3)文档图像分类任务的目的是预测文档图像的类别。该任务在 RVL-CDIP 数据集上进行。RVL-CDIP 数据集包含400,000张文档图像,标有16个类别。

(4)文档视觉问答任务需要模型将文档图像和问题作为输入,并输出一个答案。该任务在DocVQA数据集上进行。DocVQA 的训练集包含约一万张图片和四万个问题。

在这些任务上,LayoutLMv3 取得了比以前的工作更好或相当的结果。例如,对于LARGE模型规模,LayoutLMv3 在 FUNSD 数据集上取得了92.08的 F1 分数,大大超过了此前 LARGE 规模的 SOTA 结果(85.14)。

表1:LayoutLMv3 和已有工作在 CORD、FUNSD、RVL-CDIP、DocVQA 数据集上的实验结果对比


2.  微调视觉任务:所有指标优于其他模型


为了证明多模态预训练模型 LayoutLMv3 在视觉领域应用的通用性,研究员们将 LayoutLMv3 应用于了文档布局分析任务。文档布局分析任务旨在为文档的不同布局元素检测二维位置和类别。这项任务有助于将文档解析成机器可读的格式,供下游应用程序使用。研究员们将这项任务建模为目标检测问题,以 LayoutLMv3 为特征提取网络,将不同层提取的特征整合到目标检测器中。研究员们在 PubLayNet 数据集上进行了实验。该数据集包含三十多万张研究论文图像,每张图像都有布局边界框的位置和类别标注,类别涵盖文本、标题、列表、图和表。与卷积神经网络模型和同期的视觉 Transformer 预训练模型相比,LayoutLMv3 在所有指标上都优于其他模型。


表2:LayoutLMv3 和已有工作在 PubLayNet 数据集关于文档布局分析任务的实验结果对比


3.  消融实验:有力证明了 LayoutLMv3 适合以图像为中心的文档分析任务


为了研究 LayoutLMv3 的图像表示方法和预训练目标的效果,研究员们在四个典型的数据集上进行了消融实验。基础模型只使用文本和布局信息,用 MLM 目标进行预训练。接着,研究员们依次为基础模型增加图像表示,MIM 和 WPA 预训练目标。


通过表格中的结果,可观察到,基础模型没有图像表示,不能进行以图像为中心的文档分析任务。LayoutLMv3 采用图像块的线性映射作为图像表示,设计简单,只引入了0.6M的参数。这种图像表示通过与 MIM 预训练目标结合,不仅能支持以图像为中心的任务,还能提升以文本为中心的任务的表现。结合 WPA 预训练目标又进一步提升了所有下游任务的性能,证实了 WPA 在跨模态表示学习和图像表示学习中的有效性,强调了视觉和语言跨模态对齐学习的重要性。此外,研究员们还发现 MIM 可以帮助规范化训练,对于 PubLayNet 上的文档布局分析等视觉任务的模型收敛至关重要。


表3:关于图像表征和预训练目标的消融实验结果对比


LayoutLMv3 用于中文文档理解也有出色表现



以上描述的 LayoutLMv3 模型的预训练数据均为英语,可在英语的下游任务数据集上微调。为了满足广大中文用户的需求,研究员们还训练了中文的 LayoutLMv3 模型,可用于中文任务。


研究员们通过大规模数据抓取获得了海量的数字文档,并用自动化语言检测工具筛选出了5000万张中文文档图像用于预训练。研究员们在一个中文视觉信息抽取任务上验证了模型的效果。由表4可见,LayoutLMv3 在所有类别平均分数上取得了99.21的高分,显著超过了其他模型,验证了 LayoutLMv3 中文模型的有效性。


表4:LayoutLMv3 和已有工作在 EPHOIE 中文数据集关于视觉信息抽取任务的实验结果对比


大量的实验结果都证明了 LayoutLMv3 的通用性和优越性,它不仅适用于以文本为中心和以图像为中心的文档智能任务,还可以以更少的参数获得更好或相当的性能。未来,微软亚洲研究院将探索扩大预训练模型的规模,使模型能够利用更多的训练数据来进一步推动结果;同时扩展模型的少样本学习能力,从而促进模型在文档智能行业中更多业务场景下的应用。


LayoutLMv3 论文链接:

https://arxiv.org/pdf/2204.08387.pdf


LayoutLMv3 代码链接:

https://aka.ms/layoutlmv3















你也许还想看




微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
WAIC 2022 | 澜舟科技创始人&CEO 周明:基于预训练语言模型的可控文本生成研究与应用重磅!YouTube管理层十年首次巨变,被这位新晋女掌门的背景惊艳到…字节AI Lab提出的新多语言多模态预训练方法刷榜!已开源春心荡漾,返老还童(十二)腾讯音乐将回归港股二次上市,YouTube近12个月支付超60亿美元版税,Spotify成美国最大播客网络​别的简报|Lo-fi Girl 停播了,全球第一学习 BGM 电台被 YouTube 下架大华、宜家、Walmart、H-mart&Santa Monica...洛杉矶逛吃计划,Shuttle Bus来啦大温民众蜂拥去美边境采购,这Outlets举行特卖,本周末加美边境要被挤爆Ladder Side-Tuning:预训练模型的“过墙梯”使用 VLC 下载 YouTube 视频 | Linux 中国Gentle Outside | 准备好打开夏天了吗?李子柒消失一年!YouTube粉丝不离不弃,无人能像她一样传播中国文化突破能量禁忌的项目。。。npj Computational Materials: 华人教授曹晔提升金属氧化物忆阻器—导电细丝的形成与优化网红来啦!硅谷斜杠青年之Youtuber自媒体专场Facebook Gaming停运独立APP!Twitch,Youtube,TikTok成赢家CVPR 2022 | 只需要一组预训练参数,所有恶劣天气一次解决!​兼具Swin和ViT的优势!可用于MAE预训练的超简单层次Transformer结构Coach Outlet 618年中大促!钱包$47.5起,马鞍包仅$84!折扣低至3折+额外8折!大家乐港式快餐ACL 2022 | 基于Prompt的自动去偏:有效减轻预训练语言模型中的偏见Chinese Paddlefish That Outlived Dinosaurs Now Extinct: IUCN如何高效、精准地进行图片搜索?看看轻量化视觉预训练模型天道、鬼神与礼乐:中西文明传统中的超越性思想南街知名餐馆Jim's Steaks被烧毁! 费城社区大学开设卡车司机培训班!廉价超市Grocery Outlet在北费城开新店多模态预训练模型指北——LayoutLMAAAI 2022 | 车辆重识别全新方向!解决恶劣天气下的车辆重识别!有效提升真实世界可行性!训练代码以及预训练模型皆以开源!【人人原创】《一曲新词酒一杯》 (浣溪沙-玉楼春) 晏殊词 唐歌演唱 雅歌曲ICML 2022 | 字节提出首个用于评测预训练视觉语言模型真正泛化能力的基准评测平台 VLUE小聚Disabled Man in Chinese Countryside Inspires Disillusioned Youth陌上花开875 Be Your Mirror, Your Sword, Your Shield, and Your Love你看过Youtube上点击率破8亿的亲子视频吗?
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。