Redian新闻
>
ACL 2023 | 从平面图像中理解空间语义:视觉空间位置描述

ACL 2023 | 从平面图像中理解空间语义:视觉空间位置描述

科技


本研究首次提出了一种关于视觉空间描述的新任务,构建了一个大规模图片-空间描述数据集,提供一个基于预训练视觉语言模型的基线方法,和基于 3D 特征和空间场景图建模的新型框架,实现了对图文生成领域在空间感知这一方向上的延伸,并为下游空间感知相关的应用提供了方法建模的启发。


相关论文:


标题:

Visual Spatial Description: Controlled Spatial-Oriented Image-to-Text Generation

会议:

EMNLP 2022

作者:

赵煜¹,魏建国¹,林智超¹,孙越恒¹,张梅山²,张民²

单位:

天津大学¹,哈尔滨工业大学(深圳)²
论文:
https://arxiv.org/abs/2210.11109



标题:
Generating Visual Spatial Description via Holistic 3D Scene Understanding

会议:

ACL 2023

作者:

赵煜¹,费豪²,吉炜²,魏建国¹,张梅山³,张民³,Tat-Seng Chua²

单位:

天津大学¹,新加坡国立大学²,哈尔滨工业大学(深圳)³

论文:

https://arxiv.org/abs/2305.11768

代码和数据:

https://github.com/zhaoyucs/VSD




动机介绍


1.1 图文生成任务(Image-to-Text Generation)背景


图文生成任务(Image-to-text Generation),即根据视觉图像输入生成关于图像的自然语言描述,是视觉理解的一个基本形式。图文生成在很多实际场景中都有相应的应用,例如图片搜索、自动导航、辅助感知,及诸多领域下的人机交互场景。对图文生成研究最多的是图像字幕(Image Caption),即为图片生成一句简短的描述。


然而这种方式仅仅停留在对图中展示内容的概括性描述,无法全方位、多角度地描绘出场景细节。另外一种形式的图文生成任务是视觉问答(Visual Question Answering),视觉问答在给定图片的基础上额外输入一个问题,根据提问内容针对性的回答关于图中的某方面信息。


然而,简单的图像字幕或者视觉问答并不能满足下游场景应用的需求,比如在比较具体的领域像自动导航、遥控等,需要针对性的让模型对视觉场景中的“空间位置信息”进行描述,而一般的图文生成模型没有经过专门针对“空间位置信息”的学习,也就无法实现从“空间位置信息”的角度进行描述生成,也无法解决理解“空间位置信息”过程中遇到的一些特殊问题。

▲ 图1 VSD与一般图文生成任务的区别


1.2 针对空间位置信息的图文生成


为了解决上述问题,我们针对空间语义理解提出了一个专门的图文生成任务:视觉空间位置描述(Visual Spatial Description,VSD)。该任务根据一张图片和图中的两个实体,生成对这两个实体的空间位置关系的自然语言描述。例如,如图 1 所示,根据提供的图片和一对实体(如“man”,“car”),生成他们的空间位置描述(“A man is walking behind a red car from right to left.”)。VSD 属于图文生成任务的一个子集,不同于无约束的图像字幕或视觉问答,它专门从“空间位置信息”的角度对场景进行描述,同时聚焦到了具体的局部目标之上。


1.3 视觉空间描述问题的难点


和一般图文生成任务相比,视觉空间描述任务面临两个关键的特有挑战:


1. 如何从平面图像理解空间位置信息。平面图像是三维真实世界在二维空间上的投影,本身不包含真正的三维空间信息。如图 1 中的“man”和“car”在图像中展示为左右相邻并重叠的区域,必须通过结合图中的场景才能“推理”出他们所表达的三维空间中实际的“前“、”后”关系。


2. 多角度描述问题。对于一种场景,有时需要用多种方式进行描述。如图 1 中的“man”和“car”,描述它们的关系可以通过借助不同的第三方参照物来进行,比如“the car on the road”或者“the car near the pole”等。




任务定义与数据标注


2.1 任务定义


视觉空间描述任务定义如下:


输入:图片 ,两个指定目标 ,其中 表示目标的类别标签, 表示目标在图中的区域坐标。
输出:描述 空间位置关系的句子。

2.2 评价指标


主要指标 BLEU,SPICE。次要指标 METEOR,ROUGE,CIDEr


▲ 图2 数据标注流程


2.3 数据构建


我们利用了公开的图像数据集 SpacialSense 和 VisualGenome 的图片资源,选取了约 3w 张图片进行空间描述的标注,构建了一个 VSD 数据集。我们开发了一个标注平台进行标注管理,并专门雇佣了一批标注人员培训后进行统一标注,标注整体流程如图2所示。标注数据的统计结果如表 1 所示:


▲ 表1 VSD数据集统计


数据集包含约 3 万张图片,14 万个句子以及 4 千多种目标标签类型。目前已经更新了两个版本 VSD v1 和 VSDv2,v2 版相较于 v1 有更多样性的语言表达和更复杂的句式结构,因而更具挑战性。图 3 中给出了两个版本数据的差异,可以看出 v2 版本的描述句子更加复杂,包含了更多的细节信息。


▲ 图3 VSD v1和VSDv2数据对比




视觉空间描述生成模型


3.1 基线模型(EMNLP 2022)


▲ 图4 预训练视觉-语言模型


传统的图文生成模型采用预训练的视觉-语言模型实现,如图 3 所示,包括一个视觉语言编码器和一个解码器。编码器降图像序列化后与文本表示一起进行编码,然后由解码器生成目标文字。一般的图文生成任务如图像字幕和视觉问答都可以通过这类模型解决,并取得了很好的效果。


在此基础上,针对 VSD 任务的特点,我们提出利用空间位置特征增强图文生成模型并引导模型生成关于空间位置关系的描述。具体地,我们将 VSD 两个输入目标的位置坐标编码作为位置特征,再利用空间关系分类任务作为辅助任务帮助训练模型学习空间特征。我们尝试了两种模式:流水线模式和端到端的联合学习模式。


在流水线模式下,如图 5 左侧所示,模型首先根据原始输入和提取的位置特征做关系分类预测,预测结果为预先定义的九个空间关系类别。然后,利用得到的空间关系输入到第二阶段的空间描述生成模型中,得到最终的描述文字。流水线模式虽然利用了空间特征,但由于第一步的关系分类精度无法保证,因此会不可避免产生错误传播问题。


为了避免这个问题,我们采用了端到端的联合学习模式,如图 5 右侧所示。在联合学习模式下,关系分类作为图文生成的辅助任务,并用多任务学习的方式一起训练。这样既充分利用了位置特征又避免了流水线模式的缺点。


▲ 图5 位置特征增强的图文生成模型


3.2 基于3D场景感知的视觉空间描述生成模型(ACL 2023)


然而,基于传统图文生成模型的方法无法解决 VSD 中从平面图像到三维世界的空间推理问题。为此,我们提出一个基于图像整体 3D 场景感知的模型来进行 VSD 生成。该模型采用编码-解码架构,如图 6 所示。


▲ 图6 基于3D场景感知的VSD模型结构


3.2.1 编码器: 3D场景特征建模


首先,我们利用一个预训练的 3D 检测模型,对评价图像进行 3D 场景估计和目标检测,得到场景中每个物体的位置、姿态等 3D 特征,如表 2 所示。


▲ 表2 3D特征介绍


然后,以 VSD 两个输入目标为中心,基于他们的 3D 特征构建一个 3D 空间场景图(target object-centered 3D spatial scene graph, GO3D-S²G),表示物体之间的空间位置关系,并通过图神经网络对 3D 空间场景图编码。GO3D-S²G 的构建过程如图 5 所示,图的节点表示场景中的实体,边表示实体空间关系,对所有节点依次建立三类边:


1. 目标实体边:两个目标实体是 VSD 最需要关注的,因此首先连接 VSD 的两个目标实体节点。


2. 目标实体-背景实体边:出目标实体本身,还需要关注目标实体与周围实体的直接交互,因此分别链接两个目标实体节点和其余节点,构成实体节点的一阶邻居。


3. 邻近实体边:场景中一些其他实体的关系也有助于对场景整体的感知,因此我们选择连接位置较近的其它实体作为补充的边。


▲ 图7 3D空间场景图


构建好 3D 空间场景图之后,我们用一个关键节点中心化的图卷积神经网络(object-centered graph convolutional network, OCGCN)来进行编码建模,在每层迭代过程中额外增强了目标实体节点的特征权重。


3.2.2 解码器:空间语义多样性描述生成


在解码部分,未来满足多样性的描述生成,我们设计了一个 S³ 子图采样机制,通过采样具有不同拓扑结构的子图,来表示多样化的空间语义。具体方法如图 6 所示,我们首先为 3D 空间场景图的每一条边生成一个分数,表示边的重要程度。然后我们对 VSD 的两个目标实体节点采样一个分数最高的一阶邻居,最后修剪低分带有环路的边,最终得到一个有 2 到 4 个节点组成的子图。


▲ 图8 S³子图采样机制


最后,综合空间位置图特征和视觉特征,通过语言模型进行解码,并引入 prompt learning 来强化语言模型的生成能力。我们根据采样得到的子图设计一个 prompt 模版,包括目标实体的标签,每对节点的关系。具体示例如图 7 所示,其中 table 和 sofa 是两个目标实体,bed 是和 sofa 相关的背景实体。


▲ 图9 prompt模板示例


对于 prompt 中的 <REL> 关系词,我们根据实体的位置坐标映射到一组预定义的方位词上。映射关系如图 8 所示,方位涵盖了三维空间里的全方位视角。图 9 展示了根据实体的形心坐标计算得到方位词的规则。


最终,我们将采样的图特征和 prompt 模板以及图像视觉特征一同输入语言模型解码,并通过 transformer 中的 cross-attention 进行特征融合最后生成 VSD 描述。


▲ 图10 实体位置到方位词的映射


▲ 图11 位置坐标和方位词的映射规则




实验结果


我们在两个版本的 VSD 数据集上进行了实验来验证我们的方法。我们以传统图文生成模型中表现最好的几种为基线模型,对比了我们的方法。


▲ 表3 实验结果


观察表 3 的结果,我们发现:


  • 传统的图文生成模型(VL-PTMs)可以一定程度地解决 VSD 任务,且性能差别不大。因为预训练的视觉-语言模型具有了一定的通用图文生成能力。

  • VSDv2 版本的数难于 v1 版本,因此模型在 v2 版本明显弱于 v1。

  • 在视觉空间描述任务上,我们的模型明显优于其他模型,表明我们的模型在挖掘图像空间语义方面有更强的能力。


▲ 表4 多样性生成结果


此外,我们还对比了多样化生成的能力,表 4 的结果表明我们的模型能够生成更多样的句式,同时保证语义上精度。


▲ 表5 消融实验


表 5 展示的消融实验表明,我们利用 3D 场景信息可以有效帮助图像中物体空间位置关系的理解,且 3D 空间场景图的建模方式起到了关键作用。


▲ 图12 3D特征消融实验


我们比较了不同 3D 特征和纯 2D 特征的作用,图 10 的消融实验表明相较于 2D 特征,3D 特征可以有效提升 VSD 任务的性能。


▲ 图11 S³采样子图的拓扑类型分布


最后,我们分析了 S³ 机制采样得到的子图拓扑类型的分布。如图 11 所示,通过控制采样阈值,我们可以把子图的拓扑类型分布控制在一个均衡的范围中,以合理地控制多样化程度。




工作总结和未来工作方向展望


在这两篇文章中,我们介绍一个新任务——视觉空间描述(VSD)。该任务从平面图像中根据指定目标生成它们的空间位置描述,是对图文生成类任务的一个扩展延伸。我们为该任务构建了一个包括 3 万张图片,10 万句以上的大规模数据集。为了解决 VSD 任务面临的关键问题,我们提出了一个基于 3D 特征利用的生成模型。实验结果表明,我们的模型在解决空间位置推理方面较一般通用图文生成模型表现出色,同时有较好的语义级别的多样性生成能力。


对于未来工作方向,我们认为可以从以下几个点入手:


  • 将利用 3D 先验知识从平面图像中推理空间信息的思路应用于其他类似任务,如场景图生成、视频描述等。

  • 多样性生成机制的探索,我们提供了一个利用图结构采用的方式达到多样性生成的目的。类似的方法可以用在其他开放式任务中,如智能对话、图像合成、语音合成等

  • 视觉空间描述仍有一些问题需要探索,比如如何生成对多个目标的复杂关系生成描述、如何对全局场景进行描述、如何解决 grounding 问题等等。



更多阅读




#投 稿 通 道#

 让你的文字被更多人看到 



如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。


总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 


PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。


📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算


📬 投稿通道:

• 投稿邮箱:[email protected] 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿


△长按添加PaperWeekly小编



🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧


·
·

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
视觉AI能力大一统!自动化图像检测分割,还能可控文生图,华人团队出品我和大海有个约——清明祭父有感(2023)Movie name: D33P WAT3R一键生成山川、河流,风格多样,从2D图像中学习生成无限3D场景我连剖面图都美过你的效果图!(附PSD下载)每个人都在问的绝美杂志封面图,我们帮你找出来了国际要闻简报,轻松了解天下事(04封面图里有种好吃的水果!你猜它是?CVPR 2023 | 谷歌提出CLIPPO:仅从像素理解图像和语言CCL2023-Eval | 汉语高考机器阅读理解对抗鲁棒评测正式开启,诚邀您积极参与Caption Anything来了!可以解读清明上河图,细粒度可控的图像描述!从平安到友邦:中国八大保险公司竞争力横评2033年:我们的世界 (下)TPAMI 2023 | 无创解码大脑信号语义,中科院自动化所研发脑-图-文多模态学习模型加拿大新版护照亮相!页面图案大变样 今秋可在线更新护照!暴雨侵袭!超强对流风暴袭伊州 吹散雾霾缓解空污专访HiDream.ai梅涛:视觉模型还未智能涌现,现在还有机会打造一家超越Midjourney的公司|年度AI对话国际要闻简报,轻松了解天下事(04CVPR 2023 论文分享会|精彩抢先看:视觉 + X(Visual + X)大人小孩都爱玩的视觉空间桌游,明天涨价,最后一天!【炜炜道来】从平台企业座谈会看港股和当下社会需求七绝 孟郊 (通韵)哈佛访校记CVPR 2023 | 华科&MSRA新作:基于CLIP的轻量级开放词汇语义分割架构2022&2023 Subaru Outback 和 2023 Honda CRV Hybrid二选一2023 春假日本行ACL 2023 | GLUE-X:基于分布外泛化的自然语言理解模型测试集炸裂!最新CVPR2023、ICML2023、AAAI2023、ACL2023论文+Code大合集!CCL2023-Eval | 汉语框架语义解析评测正式开启,诚邀您积极参与CVPR 2023 | 掩码图像建模MIM的理解、局限与扩展腹横肌平面阻滞中国疼痛学与麻醉学专家共识(2023 版)CVPR2023|天大联合卡迪夫大学发布SemanticHuman:部件级、精细语义、灵活可控的3D人体编辑表征港中文李教授:基于遥感图像的地理空间图像分类识别|收获一作论文与导师推荐信!国际要闻简报,轻松了解天下事(04美炸了!加拿大发布新版护照!封面图案设计大变样!7月推出!网贷不还,有人教你从平台讹钱|他们的互联网AI作图获世界级摄影大奖,获奖者拒领奖!专家:视觉艺术或被颠覆!泄露!加拿大护照将重新设计!封面图案全换! 还要改颜色?阿大提出:视听分割合成新数据集和声音图像分割新网络CVPR 2023 | 香港理工提出GrowSP:3D场景的无监督语义分割
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。