EMNLP 2022 最佳论文揭晓!这脑洞绝了….
1
『前言』
读文章之前,我们先来思考人工智能中一个核心而底层的问题:什么是抽象以及它能够给我们带来什么?
我们这里说的“抽象”是一个认知学上的概念,著名学者 ChatGPT 说:“抽象是指不依赖于具体事物或实例,而是指抽取共同点或基本特征的思维过程。”
在人类智能中,抽象是一个很底层很基本的能力,在某种程度上,可以认为是人类智能的源头之一。因为人在对主客观世界进行观察的过程中,抽象出了无数种概念(concept),对这些概念的模块化(modularity)、组合式(compositionality)的理解,很大程度上刺激了人类语言的诞生,从而最终导致了人类智能、人类文明的产生。
举个例子,万年前的“猴子们”观察了大量的物理对象(object)、实体(entity)以及他们之间的关系(relation)等,逐渐在脑子里面形成了“石头”、“家庭”、“在...之间”、“因果”等概念,经过很长一段时间之后,“猴子们”把这些存在脑海里面的概念用“字”和“词”表示了出来,这些蕴含着抽象概念的字和词经过复杂的、有规则的组合,形成了各种各样的语言,而语言能够表达、演绎、推理一切!就这样,人类智能诞生了~
在认知科学上,七巧板就是这个智能过程的一个简单的重现:七巧板的每个板板就是上面说的一个类似“概念”的存在, 这些代表“概念”的板板模块经过组合,形成了多种多样的形状(shape),而人类如何理解这些形状,又如何理解这些板板,在某种程度上,就是某个人抽象能力的衡量。而抽象能力,就是人类进行推理(reasoning)以及泛化(generalization)的底层能力。
今天介绍的这篇文章荣获了EMNLP 2022 Best Long Paper, 巧妙地借鉴了七巧板这个童年游戏,评估了当前多模态模型的抽象理解能力。可以说,至少在人类级别智能的评测上,推进了一步!
论文标题:
Abstract Visual Reasoning with Tangram Shapes
论文链接:
https://arxiv.org/pdf/2211.16492.pdf
2
『数据集的构建』
首先给大家展示一下童年回忆之七巧板:
一套七巧板由 7 个颜色各异的板板组成,可以根据想法自由组合成各种各种的形状。
这篇论文首先收集了 1004 个七巧板图像,又从七巧板的研究文献中找了另外12种将其扩充到了 1016 个,然后在 Amazon Mechanical Turk 平台上雇了 297 个数据标注员,花了两千多美刀让他们标注了这么两个任务:
七巧板整体形状的预测:这部分数据集叫做 FULL “This shape as whole looks like ___”
部分预测:形容某个单独的部分是干啥的,因为细节标注比较密,所以把这部分数据集叫做 DENSE "The part you selected looks like___"
作者还从 DENSE 里面挑出来一些标注不那么密的子集,叫做 DENSE10.
在这个数据集当中,包含了类人形状(比如舞者)、动物形状(比如狗狗)还有物体形状(比如房屋)等等。可以从下面两张图中大概了解长什么样儿~
3
『数据集质量衡量』
看了这些图,不难发现七巧板这个任务过于抽象,对人工数据集构建来说,这就导致了一个关键的问题:不同标注员之间存在较大的主观差异,“你说这是个鸟头,我却说那是个风中的美女头巾”(参考 Figure 1),这样数据集不就乱套了吗?好在作者给出了衡量这类数据集质量的三种指标:
形状命名差异(shape naming divergence,SND):用来衡量不同标注员进行不同七巧板图像的形状标注时的总体差异;
部分命名差异(part naming divergence PND):用来衡量不同标注员进行不同七巧板图像的局部标注时的总体差异,计算方式和 SND 大致相同;
分块分割一致性(part segmentation agreement,PSA):用来衡量不同标注员划分局部时的总体差异,也就是不同的人可能将不同的板板组合划分成某个部分。作者把这个看作是“使用最大权重匹配的线性和分配问题”,并使用成本矩阵计算(快去复习算法[旺柴])
总之这么衡量下来,数据集质量还是不错滴~ 符合真实分布~
具体的计算公式以及得到结论的细节,感兴趣的读者可以移步原文~
4
『多模态模型有抽象能力吗?』
作者把构建的数据集叫做 KILOGRAM,主要衡量了两类代表性多模态模型的视觉抽象能力:
以 CLIP 为代表的双塔模型:视觉和语言模态采用不同的 encoder;
以 ViLT 为代表的单塔模型:视觉和语言拼接成一长串输入,喂给同一个 encoder.
1. 任务形式化
2. 输入和输出
3. 模型训练
PT: 仅使用预训练模型,不精调,以 zero-shot 的方式在 KILOGRAM 上测试; FT: 使用预训练模型,并使用对比训练在 KILOGRAM 精调并测试。
在精调的基础上,还可以进行上文提到的数据增强(AUG)
4. 实验结果
仅仅看 zero-shot (i.e., PT)的表现,CLIP略优于ViLT; 添加局部信息并没有太大的作用,说明预训练模型并不能很好地推理文本和七巧板局部之间的关联; WHOLE+BLACK 上的 zero-shot 的实验表现说明,预训练模型并不能很好地将熟悉的概念泛化到抽象的形状当中去(它知道现实世界中狗狗是什么样子的,但是并不能将七巧板抽象狗和真实狗狗联系在一起) 精调可以大幅改进性能; 在精调设定下,在文本描述中添加局部信息可以提升性能,但是在七巧板图像中添加局部信息并没有用;当两者都提供时,改善很明显。 在精调设定下的实验结果与人工评测结果规律相似; 数据增强只对 CLIP 有用,但对 ViLT 没用; 在PARTS+COLOR条件下,ViLT的表现明显优于人类的平均表现。
5
『一点碎碎念』
扫描二维码添加小助手微信
关于我们
微信扫码关注该文公众号作者