Redian新闻
>
AAAI 2023 | 多模态对话的SPRING来了!无需标注就能做多模态问答预训练

AAAI 2023 | 多模态对话的SPRING来了!无需标注就能做多模态问答预训练

科技

©PaperWeekly 原创 · 作者 | 龙宇星

单位 | 北京邮电大学




引言

在复杂场景中,简单的指代描述(如“黑色夹克”)常常会造成相似物品间的歧义,此时我们倾向于使用详细的视觉属性和涉及背景物体的相对方位关系(如“最左边落地衣架上有竖直条纹的黑色夹克”)来无歧义地指代场景中的具体物品。

当构建复杂场景的多模态对话助理时,我们希望它们也能够在回复中清晰准确地指代物品,这对于多模态对话助理的视觉属性理解能力,相对方位关系多跳推理能力,以及视觉属性与方位关系对齐能力都提出了很高的要求。现有多模态对话助理都没有提出有针对性的解决方案,它们只是简单地将物品视觉属性作为文本输入或将编码后的物品边界框与视觉属性拼接作为图像输入,这使得它们生成响应中物品指代十分模糊,无法准确描述视觉属性和涉及多跳的相对位置关系。

为了解决这一问题,我们提出了递增布局图(Incremental Layout Graph)和多模态问答(Multimodal Question Answering)预训练任务。我们从对话历史中抽取物品的视觉属性和方位信息来生成每一张场景图像对应的布局图,这些布局图以物品信息为节点,方位关系为边,可随新信息的加入而不断扩增。凭借递增布局图和自然语言模板即可无需人工标注,快速生成大量不同类型的多模态问答对(Question Answering Pair)用于多模态问答预训练。

我们把经过预训练得到多模态对话助理称为 SPRING,在具有代表性的复杂购物场景多模态对话数据集 SIMMC 2.0 和 SIMMC 1.0 响应生成任务,SPRING 在所有评价指标上都大幅度超过现有表现最佳的模型。



论文题目:

SPRING: Situated Conversational Agent Pretrained with Multimodal Questions from Incremental Layout Graph

论文链接:

https://arxiv.org/abs/2301.01949

代码链接:

https://github.com/LYX0501/SPRING




方法

首先,我们构造多模态对话助理 SPRING,它以基于编码器-解码器结构的单流视觉语言模型作为主干,由堆叠的 Transformer 层组成。SPRING 的视觉输入是经过编码的场景图像块,文本输入为经过编码的子词序列,它通过自回归方式生成响应。
然后,我们设计预训练方法来训练 SPRING 对于视觉属性和方位信息的理解和生成能力。我们的预训练方法由两部分构成,第一部分是递增布局图生成算法,第二部分是多模态问答预训练任务,下面我们分别详细介绍这两部分内容。
我们发现对话历史中存在大量视觉属性和相对方位关系描述,这些描述比数据集标注更加详细准确。更重要的是对话历史和待生成的响应之间存在物体共指(Co-Reference),即待生成响应中含有对话历史中提及的物体,这意味着可以无需人工标注,仅利用对话历史中详细指代来进一步训练模型从而提升响应质量。

为此我们设计了递增布局图生成算法,从对话历史中抽取物体的视觉属性和方位信息,为每一张场景图像生成布局图来刻画场景物体,下图展示递增布局图的生成过程。



如图左侧所示,我们根据语言语法特点设计针对视觉属性和方位描述的正则化表达式,利用这些表达式可以从对话历史中抽取到天然对齐的数字资产视觉属性(如“pink t-shirt”)和方位描述(如“in the top row on the back display wall”)。正则化表达式中 article,positional preposition 和 punctuation 来自牛津字典,color,asset type 和 background item 来自数据集领域知识。



我们还设计提取背景物体和方位关系的正则化表达式,从方位描述中进一步抽取背景物体(如“top row”与“back display wall”)和方位关系(如“in”与“on”)。


通过抽取到的视觉属性可以在结构化数据中查询物体 ID 和边界框信息,并以物体(包括数字资产和背景物体)作为节点,方位关系作为边形成如图中间部分所示的布局子图,关于同一场景的布局子图可以构成最右侧的完整布局图。每一张布局图都涵盖了场景图像中物体的视觉属性和相对位置关系,并可以随新加入的布局子图而不断递增。

获得所有布局图以后,我们设计了视觉问答和方位问答两大类,共六种问答自然语言模板。模板内容如下表所示,“[*]”为待填充的槽值,它们包括视觉属性,数字资产 ID,方位信息和数字资产边界框坐标。为了填充自然语言问答模板,我们在布局图上以数字资产节点为起点进行游走,通过所经过的节点和边获取填充信息。


我们定义 Q(·) 为填充问题模板的函数,A 为问题所对应的答案,Type 为视觉属性类型,ID 为数字资产 ID,I 为场景图像,BBox 为数字资产边界框坐标,t_sr 为方位关系,t_va 为视觉属性,t_bi 为背景物体,并分别介绍六种不同类型的多模态问答预训练任务。

纯视觉问答(PVQA):该任务的目的是帮助多模态对话助理建立物体 ID 和对应视觉属性之间的联系,问答对可通过布局图中数字资产节点的 ID 和视觉属性来填充 Pure Visual QA 模板生成。PVQA 任务的优化目标为

区域引导的视觉问答(RVQA):该任务旨在提升多模态对话助理根据边界框定位物体并理解视觉属性的能力,问答对可通过布局图中数字资产节点的 ID,视觉属性和边界框坐标来填充 Region-Guided Visual QA 模板生成。RVQA 任务的优化目标为
位置引导的视觉问答(PoVQA):该任务的目的是提升多模态对话助理根据自然语言形式的方位描述定位物体并理解视觉属性的能力,问答对可通过布局图中数字资产节点的 ID 和视觉属性以及相连的背景物体节点和边来填充 Position-Guide Visual QA 模板生成。PoVQA 任务的优化目标为
纯方位问答(PSQA):该任务旨在帮助多模态对话助理建立物体 ID 和对应方位关系之间的联系,问答对可通过布局图中数字资产节点的 ID 以及相连的背景物体节点和边来填充 Pure Spatial  QA 模板生成。PSQA 任务的优化目标为
区域引导的方位问答(RSQA):该任务的目的是提升多模态对话助理根据边界框定位物体并描述物体相对方位关系的能力,问答对可通过布局图中数字资产节点的 ID,边界框坐标以及相连的背景物体节点和边来填充 Region-Guided Spatial QA 模板生成。RSQA 任务的优化目标为
视觉属性引导的方位问答(VSQA):该任务旨在提升多模态对话助理根据视觉属性描述物体具体方位的能力,与多模态对话下游任务的形式最为接近,问答对可通过布局图中数字资产节点的 ID,视觉属性以及相连的背景物体节点和边来填充 Visual Attribute-Guided Spatial QA 模板生成。VSQA 的优化目标为

根据填充模板时在布局图上跨越的节点数量,可以自动为每个问答对生成难度标签(如跨越两个节点则难度标签为“2”)。不同类型预训练任务的输入和输出如下图所示, 黄色方框中的数字即为问答对的难度标签。


遵循课程学习的思想,我们在预训练前期采用难度较低的多模态问答对来训练多模态对话助理,随着预训练的进行,不断提升多模态问答对的难度要求。基于课程学习的多模态问答预训练,不仅收敛速度更快,更使得预训练的效果得到进一步提升。



实验

我们在复杂场景下的多模态对话数据集 SIMMC1.0 和 SIMMC 2.0 响应生成任务上展开评测实验。在包括 BLEU-4,METEOR,ROUGE,CIDEr 在内的七个广泛使用的自动化评价指标上,通过我们预训练方法得到的 SPRING 多模态对话助理大幅超越原来的 SOTA 模型。

我们进一步人工筛选出 SIMMC 1.0 和 SIMMC 2.0 数据集中待生成响应含有视觉属性或方位信息的数据作为 Visual 子集和 Spatial 子集,来验证我们方法所带来的提升确实源于对话助理对于视觉属性和方位信息做出了更好地响应。


我们选择场景更为复杂的 SIMMC 2.0 数据集和对应的 Visual 子集以及 Spatial 子集对我们的多模态问答预训练任务进行消融实验,BLEU-4 分数评测结果如下左表所示。通过分析表格中的实验结果可以清晰的观察到,我们设计的视觉问答预训练任务和方位问答预训练任务分别有效提升了多模态对话助理对于视觉属性和方位信息的响应能力,以课程学习思想作为预训练数据的分配策略进一步提升了预训练的效果。


我们在 SIMMC 2.0 数据集上对原 SOTA 模型 DialVinVL,GLIMMeR 以及  SPRING 进行了人工评测,评测从 Fluency,Relevance,Correctness 以及 Informativeness 四个方面展开,按照 1~5 进行评分。

从上右侧图我们可以观察到,SPRING 在四个人工评测维度都相比于原 SOTA 模型具有更好的表现,特别是在 Correctness 和 Informativeness 两个方面提升显著,这进一步说明我们设计的预训练方法有效性。



未来展望

目前我们提出的多模态问答预训练任务主要针对视觉属性和方位描述这两个方面的问题,其实多模态对话还存在许多其他的难点(如指代消解,物体重叠等等),未来研究者可以根据这些难点设计更多不同类型的多模态问答预训练任务,还可以在多模态问答对的生成方法上做出进一步探索,尝试利用 LLM 来抽取信息生成问答对。我们相信摆脱数据标注限制的多模态问答预训练方法蕴藏着非凡的潜力和生机,可以为多模态对话研究带来一片春天!

更多阅读



#投 稿 通 道#

 让你的文字被更多人看到 



如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。


总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 


PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。


📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算


📬 投稿通道:

• 投稿邮箱:[email protected] 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿


△长按添加PaperWeekly小编



🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧


·
·

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
突然官宣!中澳又将新增直飞航线!无数华人等到了!澳洲2023年移民大放水,翻倍!而这个州移民低分就能拿PR...基于无标注网络驾驶视频,自动驾驶策略预训练新方法 | ICLR 2023CVPR 2023 | 结合Transformer和CNN的多任务多模态图像融合方法台湾人的走狗,北京人的败类国际要闻简报,轻松了解天下事(03OpenAI 千亿市值背后:外包数据标注员月薪不到两千,每天标注 20 万个单词体检结果出来之后登顶对话式语义解析国际权威榜单SParC和CoSQL,全新多轮对话表格知识预训练模型STAR解读我为ChatGPT做数据标注后受到了“精神创伤”:月薪不到两千,每天标注20万个单词谷歌推出多模态Vid2Seq,理解视频IQ在线,字幕君不会下线了|CVPR 2023国际要闻简报,轻松了解天下事(03Spring for Apache Kafka 3.0 和 Spring for RabbitMQ 3.0 发布天赋“易昺(bǐng)”,创造历史!中国版Bloomberg来了!这套Wind资源真的做到了无账号速通NeurIPS 2022 | UCLA推出科学问答新基准,大语言模型迎来多模态新挑战!CVPR 2023 | 可扩展的视频基础模型预训练范式:训练出首个十亿参数量视频自监督大模型SparK项目原作解读:卷积模型的首个BERT预训练实用英语情景对话|English speaking practice这是我见过最好的SpringBoot系统!转:2023 回国探亲(5)看完阿里的Spring用法,我沉默了文艺复兴的罗马城:朝拜米开朗基罗和拉斐尔CVPR 2023|哈工大南洋理工提出全球首个「多模态DeepFake检测定位」模型:让AIGC伪造无处可藏France vs. ArgentinaOFA-Chinese:中文多模态统一预训练模型为啥俺说黑格尔无知秒杀!最后一团!遇上牛新西兰进口原切战斧羊排,3大包9-12支,只要¥99!无添加!无腥味!无膻味!只有新西兰的奶香味~CVPR 2023 | G2SD: 让小模型也能从自监督预训练中受益的蒸馏方法多模态 | 视觉-语言预训练入门指南​NeurIPS 2022 | 外包训练:无需终端上传源数据,无需联邦学习,也能得到好模型?多模态如何自监督?爱丁堡等最新「自监督多模态学习」综述:目标函数、数据对齐和模型架构过年必学的小甜点!无需烤箱在家就能做,吃完财运滚滚来!哈工大讯飞联合实验室发布图文多模态预训练模型VLE别只会 SpringMVC 了!Spring 又官宣了一个更牛逼的替代框架!中文多模态对话数据集-TikTalkCVPR 2023 | 中山大学HCP实验室新突破:用因果范式再升级多模态大模型同事竟然在悄悄模仿我的Spring用法...Eruope 20232023 春 祝姐妹们周末快乐!投稿招募 | 首届多模态可穿戴信号理解AmbientAI Workshop @ ICASSP 2023
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。