Redian新闻
>
视频场景图生成任务新SOTA!中山大学提出全新时空知识嵌入框架,登顶刊TIP'24

视频场景图生成任务新SOTA!中山大学提出全新时空知识嵌入框架,登顶刊TIP'24

公众号新闻



  新智元报道  

编辑:LRS 好困
【新智元导读】STKET框架将先验时空知识纳入多头交叉注意机制中,从而可以学习到更多有代表性的视觉关系表示,在视频图生成基准上大幅领先其他算法。


视频场景图生成(VidSGG)旨在识别视觉场景中的对象并推断它们之间的视觉关系。
该任务不仅需要全面了解分散在整个场景中的每个对象,还需要深入研究它们在时序上的运动和交互。
最近,来自中山大学的研究人员在人工智能顶级期刊IEEE T-IP上发表了一篇论文,进行了相关任务的探索并发现:每对物体组合及其它们之间的关系在每个图像内具有空间共现相关性,并且在不同图像之间具有时间一致性/转换相关性。

论文链接:https://arxiv.org/abs/2309.13237
基于这些先验知识,研究人员提出了一种基于时空知识嵌入的Transformer(STKET)将先验时空知识纳入多头交叉注意机制中,从而学习更多有代表性的视觉关系表示。
具体来说,首先以统计方式学习空间共现和时间转换相关性;然后,设计了时空知识嵌入层对视觉表示与知识之间的交互进行充分探索,分别生成空间和时间知识嵌入的视觉关系表示;最后,作者聚合这些特征,以预测最终的语义标签及其视觉关系。
大量实验表明,文中提出的框架大幅优于当前竞争算法。目前,该论文已经被接收。

论文概述


随着场景理解领域的快速发展,许多研究者们开始尝试利用各种框架解决场景图生成(Scene Graph Generation, SGG)任务,并已取得了不俗的进展。
但是,这些方法往往只考虑单张图像的情况,忽略了时序中存在着的大量的上下文信息,导致现有大部分场景图生成算法在无法准确地识别所给定的视频中包含的动态视觉关系。
因此,许多研究者致力于开发视频场景图生成(Video Scene Graph Generation, VidSGG)算法来解决这个问题。
目前的工作主要关注从空间和时间角度聚合对象级视觉信息,以学习对应的视觉关系表示。
然而,由于各类物体与交互动作的视觉外表方差大以及视频收集所导致的视觉关系显著的长尾分布,单纯的仅用视觉信息容易导致模型预测错误的视觉关系。
针对上述问题,研究人员做了以下两方面的工作:
首先,提出挖掘训练样本中包含的先验时空知识用以促进视频场景图生成领域。其中,先验时空知识包括:
1)空间共现相关性:某些对象类别之间的关系倾向于特定的交互。
2)时间一致性/转换相关性:给定对的关系在连续视频剪辑中往往是一致的,或者很有可能转换到另一个特定关系。
其次,提出了一种新颖的基于时空知识嵌入的Transformer(Spatial-Temporal Knowledge-Embedded Transformer, STKET)框架。
该框架将先验时空知识纳入多头交叉注意机制中,从而学习更多有代表性的视觉关系表示。根据在测试基准上得到的比较结果可以发现,研究人员所提出的STKET框架优于以前的最先进方法。

图1:由于视觉外表多变和视觉关系的长尾分布,导致视频场景图生成充满挑战

基于时空知识嵌入的Transformer


时空知识表示

在推断视觉关系时,人类不仅利用视觉线索,还利用积累的先验知识[1, 2]。受此启发,研究人员提出直接从训练集中提取先验时空知识,以促进视频场景图生成任务。
其中,空间共现相关性具体表现为当给定物体组合后其视觉关系分布将高度倾斜(例如,「人」与「杯子」之间的视觉关系的分布明显不同于「狗」与「玩具」之间的分布)和时间转移相关性具体表现为当给定前一时刻的视觉关系后各个视觉关系的转换概率将大幅变化(例如,当已知前一时刻的视觉关系为「吃」时,下一时刻视觉关系转移为「书写」的概率大幅下降)。
如图2所示,可以直观地感受到给定物体组合或之前的视觉关系后,预测空间可以被大幅的缩减。

图2:视觉关系的空间共现概率[3]与时间转移概率
具体而言,对于第i类物体与第j类物体的组合,以及其上一时刻为第x类关系的情况,首先通过统计的方式获得其对应的空间共现概率矩阵E^{i,j}和时间转移概率矩阵Ex^{i,j}。
接着,将其输入到全连接层中得到对应的特征表示,并利用对应的目标函数确保模型所学到的的知识表示包含对应的先验时空知识。

图3:学习空间(a)和时间(b)知识表示的过程

知识嵌入注意力层

空间知识通常包含有关实体之间的位置、距离和关系的信息。另一方面,时间知识涉及动作之间的顺序、持续时间和间隔。
鉴于它们独特的属性,单独处理它们可以允许专门的建模更准确地捕获固有模式。
因此,研究人员设计了时空知识嵌入层,彻底探索视觉表示与时空知识之间的相互作用。
图4:空间(左侧)和时间(右侧)知识嵌入层

时空聚合模块

如前所述,空间知识嵌入层探索每个图像内的空间共现相关性,时间知识嵌入层探索不同图像之间的时间转移相关性,以此充分探索了视觉表示和时空知识之间的相互作用。
尽管如此,这两层忽略了长时序的上下文信息,而这对于识别大部分动态变化的视觉关系具有帮助。
为此,研究人员进一步设计了时空聚合(STA)模块来聚合每个对象对的这些表示,以预测最终的语义标签及其关系。它将不同帧中相同主客体对的空间和时间嵌入关系表示作为输入。
具体来说,研究人员将同一对象对的这些表示连接起来以生成上下文表示。
然后,为了在不同帧中找到相同的主客体对,采用预测的对象标签和IoU(即并集交集)来匹配帧中检测到的相同主客体对。
最后,考虑到帧中的关系在不同批次中有不同的表示,选择滑动窗口中最早出现的表示。

实验结果


为了全面评估所提出的框架的性能,研究人员除了对比现有的视频场景图生成方法(STTran, TPI, APT)外,也选取了先进的图像场景图生成方法(KERN, VCTREE, ReIDN, GPS-Net)进行比较。
其中,为确保对比的公平,图像场景图生成方法通过对每一帧图像进行识别,从而达到对所给定视频生成对应场景图的目标。

图5:在Action Genome数据集上以Recall为评价指标的实验结果

图6:在Action Genome数据集上以mean Recall为评价指标的实验结果
参考资料:
[1] A. Vandenbroucke, J. Fahrenfort, J. Meuwese, H. Scholte, V. Lamme, "Prior knowledge about objects determines neural color representation in human visual cortex", in Cerebral cortex 2016. 
[2] T. Chen, W. Yu, R. Chen, and L. Lin, "Knowledge-Embedded Routing Network for Scene Graph Generation", in CVPR 2018. 
[3] R. Zellers, M. Yatskar, S. Thomson, and Y. Choi, "Neural Motifs: Scene Graph Parsing with Global Context", in CVPR 2018.




微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
热议!中山大学宋尔卫/苏士成团队Nature最新研究成果,被质疑!NeurIPS 2023 | 单张图片3D数字人重建新SOTA!浙大&悉尼科技大学发布GTA​AAAI 2024 | 视觉定位标注难?浙大赵天成博士团队提出零样本定位新SOTA模型GroundVLP小红书搜索团队提出全新框架:验证负样本对大模型蒸馏的价值AAAI 2024 | 浙大赵天成博士团队提出全新评测基准OVDEval,全面审视开放词汇目标检测模型的泛化能力AAAI 2024 | 小红书搜索团队提出全新框架:验证负样本对大模型蒸馏的价值后门准确率降至3%,主任务性能几乎不变!华工JHU提出全新「联邦学习后门攻击识别」解决方案|ICCV2023OpenAI、斯坦福大学提出Meta-Prompting,有效提升语言模型的性能顶刊TPAMI 2023!中科院提出:基于几何分析的神经辐射场编辑方法夏婳:两情难相知(四十九)ICLR 2024 | 微软提出全新LLM剪枝方法:参数减少25%,大幅提升计算效率《人生路遥》&《借梦》AAAI 2024 | 武大提出神经元分类全新框架,联合学习神经元骨架与大脑回路拓扑结构几行代码稳定UNet ! 中山大学等提出ScaleLong扩散模型:从质疑Scaling到成为Scaling从挂牌到上会最短期限!万达轴承IPO,曾配合银行完成任务周转款清华叉院提出「GenH2R」框架,用百万场景打造基于视觉的通用人机交接策略顶刊TPAMI 2023!北大&华为提出:人体动作生成综述中山大学最新Science:仅三位作者!编码数据集生成框架 UnitGen 0.4.0:代码文档生成、测试代码生成中山大学开源VeryFL:基于区块链的联邦学习实验框架红色日记 派性招工 1975年 26岁 7.1-15提前对齐,视频问答新SOTA!北大全新Video-LLaVA视觉语言大模型,秒懂视频笑点月不一定是故乡的明ICLR 2024 | 媲美DALLE-3!基座模型LaVIT刷榜多模态理解与生成任务顶刊TIP 2023!浙大提出:基于全频域通道选择的的无监督异常检测AAAI 2024 | 中科院信工所提出结构化概率编码框架,有效增强预训练语言模型泛化能力北大视频大模型新SOTA,搞笑抖音视频AI秒懂笑点|开源​ICML 2023 | 港大提出创新时空图预训练架构,助力智慧城市多维任务学习扩散模型图像理解力刷新SOTA!字节联合复旦团队提出全新「元提示」策略ICLR 2024 清华/新国大/澳门大学提出一模通吃的多粒度图文组合检索MUG:通过不确定性建模,两行代码完成部署NeurIPS 2023|北京大学提出类别级6D物体位姿估计新范式,取得新SOTA几何纹理重建新SOTA!浙大提出SIFU:单图即可重建高质量3D人体模型文明斑突破!中山大学毛洋团队与合作者利用糖蛋白筛选文库鉴定出甲病毒新受体扩散模型图像理解力刷新SOTA!字节复旦团队提出全新「元提示」策略
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。