Redian新闻
>
NeurIPS 2022 | UCLA推出科学问答新基准,大语言模型迎来多模态新挑战!

NeurIPS 2022 | UCLA推出科学问答新基准,大语言模型迎来多模态新挑战!

公众号新闻



在回答复杂的问题时,人类可以理解不同模态的信息,并形成一个完整的思维链(Chain of Thought, CoT)。深度学习模型是否可以打开「黑箱」,对其推理过程提供一个思维链呢?近日,UCLA 和艾伦人工智能研究院(AI2)提出了首个标注详细解释的多模态科学问答数据集 ScienceQA,用于测试模型的多模态推理能力。在 ScienceQA 任务中,作者提出 GPT-3 (CoT) 模型,即在 GPT-3 模型中引入基于思维链的提示学习,从而使得模型能在生成答案的同时,生成相应的推理解释。GPT-3 (CoT) 在 ScienceQA 上实现了 75.17% 的准确率;并且人类评估表明,其可以生成较高质量的解释。

像人类一样有效地学习并完成复杂的任务是人工智能追求的长远目标之一。人类在决策过程中可以遵循一个完整的思维链(CoT)推理过程,从而对给出的答案做出合理的解释。

然而,已有的机器学习模型大多依赖大量的输入 - 输出样本训练来完成具体的任务。这些黑箱模型往往直接生成最终的答案,而没有揭示具体的推理过程。

科学问答任务(Science Question Answering)可以很好地诊断人工智能模型是否具有多步推理能力和可解释性。为了回答科学问题,一个模型不仅需要理解多模态内容,还需要提取外部知识以得出正确答案。同时,一个可靠的模型还应该给出揭示其推理过程的解释。然而,目前的科学问答数据集大多缺乏对答案的详细解释,或者局限于文字模态。

因此,作者收集了全新的科学问答数据集 ScienceQA,它包含了 21,208 道来自中小学科学课程的问答多选题。一道典型的问题包含多模态的背景(context)、正确的选项、通用的背景知识(lecture)以及具体的解释(explanation)



▲ ScienceQA 数据集的一个例子
要回答上图所示的例子,我们首先要回忆关于力的定义:「A force is a push or a pull that ... The direction of a push is ... The direction of a pull is ... 」,然后形成一个多步的推理过程:「The baby’s hand applies a force to the cabinet door. → This force causes the door to open. → The direction of this force is toward the baby’s hand. 」,最终得到正确答案:「This force is a pull. 」。

在 ScienceQA 任务中,模型需要在预测答案的同时输出详细地解释。在本文中,作者利用大规模语言模型生成背景知识和解释,作为一种思维链(CoT)来模仿人类具有的多步推理能力

实验表明,目前的多模态问答方法在 ScienceQA 任务不能取得很好的表现。相反,通过基于思维链的提示学习,GPT-3 模型能在 ScienceQA 数据集上取得 75.17% 的准确率,同时可以生成质量较高的解释:根据人类评估,其中 65.2% 的解释相关、正确且完整。思维链也可以帮助 UnifiedQA 模型在 ScienceQA 数据集上取得 3.99% 的提升。


论文标题:

Learn to Explain: Multimodal Reasoning via Thought Chains for Science Question Answering

论文链接:

https://arxiv.org/abs/2209.09513

项目主页:

https://scienceqa.github.io/

代码链接:

https://github.com/lupantech/ScienceQA

数据可视化:

https://scienceqa.github.io/explore.html

Leaderboard:

https://scienceqa.github.io/leaderboard.html





ScienceQA数据集


数据集统计


ScienceQA 的主要统计信息如下所示。

ScienceQA 数据集的主要信息

ScienceQA 包含 21208 个例子,其中有 9122个不同的问题(question)。10332 道(48.7%)有视觉背景信息,10220 道(48.2%)有文本背景信息,6532 道(30.8%)有视觉 + 文本的背景信息。绝大部分问题标注有详细的解释:83.9% 的问题有背景知识标注(lecture),而 90.5% 的问题有详细的解答(explanation)。
 

▲ ScienceQA 数据集中问题和背景分布
数据集主题分布

不同于已有的数据集,ScienceQA 涵盖自然科学、社会科学和语言学三大学科分支,包含 26 个主题(topic)、127 个分类(category)和 379 个知识技能(skill)

 


▲ ScienceQA 的主题分布
数据集词云分布

如下图的词云分布所示,ScienceQA 中的问题具有丰富的语义多样性。模型需要理解不同的问题表达、场景和背景知识。


▲ ScienceQA 的词云分布
数据集比较

ScienceQA 是第一个标注详细解释的多模态科学问答数据集相比于已有的数据集,ScienceQA 的数据规模、题型多样性、主题多样性等多个维度体现了优势。

 

▲ ScienceQA 数据集与其它科学问答数据集的比较


模型和方法

Baselines


作者在 ScienceQA 数据集了评估不同的基准方法,包括 VQA 模型如 Top-Down Attention、MCAN、BAN、DFAF、ViLT、Patch-TRM 和 VisualBERT,大规模语言模型如 UnifiedQA 和 GPT-3,以及 random chance 和 human performance。对于语言模型 UnifiedQA 和 GPT-3,背景图片会被转换成文本形式的注释(caption)。

GPT-3 (CoT)

最近的研究工作表明,在给定合适的提示后,GPT-3 模型可以在不同的下游任务表现出卓越的性能。为此,作者提出 GPT-3 (CoT) 模型,在提示中加入思维链(CoT),使得模型在生成答案的同时,可以生成对应的背景知识和解释

具体的提示模板如下图所示。其中 Ii 表示训练例子,It 表示测试例子。训练例子包含问题(Question)、选项(Options)、背景(Context)和答案(Answer)元素,其中答案由正确答案、背景知识(Lecture)和解释(Explanation)组成。GPT-3 (CoT) 会根据输入的提示信息,补全测试例子的预测答案、背景知识和解释。


▲ GPT-3 (CoT) 采用的提示模板



实验与分析
实验结果

不同的基准和方法在 ScienceQA 测试集上的准确率结果如下表所示。当前最好的 VQA 模型之一的 VisualBERT 只能达到 61.87% 的准确率。在训练的过程引入 CoT 数据,UnifiedQA_BASE 模型可以实现 74.11% 的准确率。而 GPT-3 (CoT) 在 2 个训练例子的提示下,实现了 75.17% 的准确率,高于其它基准模型人类在 ScienceQA 数据集上表现优异,可以达到 88.40% 的总体准确率,并且在不同类别的问题上表现稳定。

 

▲ 不同的方法在 ScienceQA 测试集上的结果
生成解释的评估

作者用自动评估指标如 BLEU-1、BLEU-2、ROUGE-L 和 Sentence Similarity 评估了不同方法生成的解释。由于自动评估指标只能衡量预测结果和标注内容的相似性,因此作者进一步采用了人工评估的方法,来评估生成解释的相关性、正确性和完整性。可以看到,GPT-3 (CoT) 生成的解释中 65.2% 符合了 Gold 标准

 

▲ 不同评估方法对生成解释的结果
不同的提示模板

作者比较了不同的提示模板对 GPT-3 (CoT) 准确率的影响。可以看到在 QAM-ALE 的模板下,GPT-3 (CoT) 可以获得最大的平均准确率和最小的方差。另外,GPT-3 (CoT) 在 2 个训练例子的提示下,表现最佳。


▲ 不同提示模板的结果比较
模型上限

为了探索 GPT-3 (CoT) 模型的性能上限,作者把标注的背景知识和解释加入模型的输入(QCMLE*-A)我们可以看到 GPT-3 (CoT) 可以实现高达 94.13% 的准确率。这也提示了模型提升的一个可能方向:模型可以进行分步推理,即先检索到准确的背景知识和生成准确的解释,然后把这些结果作为输入。这个过程和人类解决复杂问题的过程很相似。


▲ GPT-3 (CoT) 模型的性能上限
不同的ALE位置

作者进一步讨论了 GPT-3 (CoT) 在生成预测时,不同的 ALE 位置对结果的影响。在 ScienceQA 上的实验结果表明,如果 GPT-3 (CoT) 先生成背景知识 L 或解释 E,再生成答案 A,其预测准确率会大幅下降。其主要原因是背景知识 L 和解释 E 有较多的词语数量,如果先生成 LE,GPT-3 模型有可能用完最大词数,或者提前停止生成文本,从而不能得到最终的答案 A。

 

▲ 不同的 LE 位置
成功案例

如下 4 个例子中,GPT-3 (CoT) 不但能生成正确的答案,也能给出相关、正确且完整的解释这说明 GPT-3 (CoT) 在 ScienceQA 数据集上表现出较强的多步推理和解释能力。
 

▲ GPT-3 (CoT) 生成正确答案和解释的例子
失败案例I

在下面的三个例子中,GPT-3 (CoT) 虽然生成了正确的答案,但是生成的解释不相关、不正确或者不完整这说明 GPT-3 (CoT) 对于生成逻辑一致的长序列还面临较大的困难。

▲ GPT-3 (CoT) 能生成正确答案、但是生成的解释不正确的例子
失败案例II

在下面的四个例子中,GPT-3 (CoT) 不能生成正确的答案,也不能生成正确的解释其中的原因有:1)当前的 image captioning 模型还不能准确地描述示意图、表格等图片的语义信息,如果用图片注释文本表示图片,GPT-3 (CoT) 还不能很好地回答包含图表背景的问题;2)GPT-3 (CoT) 生成长序列时,容易出现前后不一致(inconsistent)或不连贯(incoherent)的问题;3)GPT-3 (CoT) 还不能很好地回答需要特定领域知识的问题。


▲ GPT-3 (CoT) 能生成错误答案和解释的例子



结论与展望

作者提出了首个标注详细解释的多模态科学问答数据集 ScienceQA。ScienceQA 包含 21208 道来自中小学科学学科的多选题,涵盖三大科学领域和丰富的话题,大部分问题标注有详细的背景知识和解释。ScienceQA 可以评估模型在多模态理解、多步推理和可解释性方面的能力。

作者在 ScienceQA 数据集上评估了不同的基准模型,并提出 GPT-3 (CoT) 模型在生成答案的同时,可以生成相应的背景知识和解释。大量的实验分析和案例分析对模型的改进提出了有利的启发。


参考文献

[1] Pan Lu, Swaroop Mishra, Tony Xia, Liang Qiu, Kai-Wei Chang, Song-Chun Zhu, Oyvind Tafjord, Peter Clark, Ashwin Kalyan, et al. Learn to explain: multimodal reasoning via thought chains for science question answering. In Advances in neural information processing systems (NeurIPS), 2022.
[2] Jason Wei, Xuezhi Wang, Dale Schuurmans, Maarten Bosma, Ed Chi, Quoc Le, and Denny Zhou. Chain of thought prompting elicits reasoning in large language models. arXiv preprint arXiv:2201.11903, 2022.
[3] Tom Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared D Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, et al. Language models are few-shot learners. In Advances in neural information processing systems (NeurIPS), 2020.
[4] Daniel Khashabi, Sewon Min, Tushar Khot, Ashish Sabharwal, Oyvind Tafjord, Peter Clark, and Hannaneh Hajishirzi. UnifiedQA: Crossing format boundaries with a single qa system. In Findings of the Association for Computational Linguistics (EMNLP), 2020.
[5] Aniruddha Kembhavi, Minjoon Seo, Dustin Schwenk, Jonghyun Choi, Ali Farhadi, and Hannaneh Hajishirzi. Are you smarter than a sixth grader? textbook question answering for multimodal machine comprehension. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2017.


更多阅读



#投 稿 通 道#

 让你的文字被更多人看到 



如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。


总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 


PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。


📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算


📬 投稿通道:

• 投稿邮箱:[email protected] 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿


△长按添加PaperWeekly小编



🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧


·


微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
征稿 | ACM MM 23 Workshop - 基于大语言模型的多模态研究和应用重大利好!澳洲今年移民大放水,30万移民涌入!这州或取消技术移民上限!八大联盟联名提交意向书!住房、医疗、教育迎来新挑战!NeurIPS 2022 | 这个图像生成模型启发于电动力学!PFGM:泊松流生成模型【回顾与展望】 2022,非洲收宮之旅,阿尔及利亚,埃塞俄比亚,突尼斯七律 2022年终总结写给我刚刚离去的表弟​NeurIPS 2022 | 外包训练:无需终端上传源数据,无需联邦学习,也能得到好模型?【回顾与展望】2022 后疫情时代的旅游,2023 回家单卡就能跑的大模型等效GPT-3!Meta发布大语言模型LLaMA,大小从7B到65B不等今天随意浏览了一下CMU 2019超越CLIP!谷歌大脑多模态学习新作CLIPPO:仅从像素理解图像和语言“文心一言”未至先火,大语言模型加持将开启百度发展新纪元2022 湾区公立/私立高中 UCB 录取率排名美丽日本:城堡与寺庙2022 USNEWS发布美国薪酬最高行业TOP25NeurIPS 2022 | 文本图片编辑新范式,单个模型实现多文本引导图像编辑我们做了一个大模型测试集「Z-Bench」,300个问题全方位考察大语言模型能力苏炳添起诉网易侵权;阿里云正式推出大语言模型通义千问;京东零售取消事业群制;联合国将官宣印度成人口第一大国丨邦早报多模态如何自监督?爱丁堡等最新「自监督多模态学习」综述:目标函数、数据对齐和模型架构大模型如何可靠?IBM等学者最新《基础模型的基础鲁棒性》教程|NeurIPS 2022澳洲人注意!2023年阿尔巴尼斯面临全新挑战!施政重点透露,首要任务是这个!OpenAI 联合创始人、首席科学家 Ilya Sutskever 解读大语言模型的底层逻辑与未来边界从LLM到MLLM,多模态大规模语言模型KOSMOS-1赋予了语言模型看见世界的能力NeurIPS 2022 | 利用多光照信息的单视角NeRF算法S^3-NeRF,可恢复场景几何与材质信息Meta最新语言模型LLaMA论文研读:小参数+大数据的开放、高效基础语言模型阅读笔记讲座预告 | 软件工程学院博学论坛第十五期:自然语言处理与大型语言模型的挑战与探索ICLR 2023 | 用大语言模型GPT-3直接替代传统搜索引擎ChatGPT+Midjourney,一卷卫生纸拍出科幻大片!200万网友围观7 Papers & Radios | Meta「分割一切」AI模型;从T5到GPT-4盘点大语言模型彭博推出BloombergGPT——专为金融行业从头打造的500亿参数大语言模型NLP大规模语言模型推理实战:大语言模型BLOOM推理工具测试实践与效果分析实录百度正式推出大语言模型“文心一言”NeurIPS 2022 | 用离散对抗训练提高视觉模型的鲁棒性和泛化能力OpenAI CEO:大语言模型规模已接近极限;余承东:造车 2025 不赢,以后没机会;苹果或曝多款新电脑 | 极客早知道猜猜医学院录取是怎么工作的AAAI 2023 | 多模态对话的SPRING来了!无需标注就能做多模态问答预训练ChatGPT爆火,LeCun心态崩了!称大语言模型是邪路,Meta模型3天惨遭下线lāo dao?láo dao!【双龙喜相逢】财神龙# 11 《女儿情》接“情” 字NeurIPS 2022 | 文本图片编辑新范式:单个模型实现多文本引导图像编辑
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。