Redian新闻
>
连GPT-4都考不及格,17个大模型悉数落败,因果推理太难了

连GPT-4都考不及格,17个大模型悉数落败,因果推理太难了

公众号新闻
机器之心报道

机器之心编辑部

大模型的涌现能力经得起推敲吗?

自 ChatGPT 发布以来,大模型的涌现能力一直被人们称赞,包括强大的语言理解能力、生成能力、逻辑推理能力等。然而,最近一项研究表明,大模型在因果推理方面普遍性能很差,连 GPT-4 都不及格。


这项研究是由来自马克斯・普朗克研究所、苏黎世联邦理工学院(ETH)、密歇根大学、香港大学和 Meta AI 的研究者们共同完成的。研究目标就是探究大型语言模型(LLM)是否能根据相关性进行因果推理。


论文地址:https://arxiv.org/abs/2306.05836


因果推理是一项重要的推理任务,获得因果关系主要有两种基本方式:一种是通过经验知识,例如,我们根据常识知道为朋友准备生日礼物会让他们开心;另一种是通过一些程序和规则进行纯粹的因果推理(Spirtes et al., 2000; Pearl, 2009; Peters et al., 2017)。


如下图 1 所示:如果 A 与 B 相关,那并不意味着 A 导致 B;如果 A 和 B 本来是相互独立的,但在给定 C 的情况下变得相关,那么可以推断,在这个封闭系统中,C 是 A 和 B 的共同效应(common effect)。



该研究提出一项新的 NLP 任务 —— 相关因果推理 (CORR2CAUSE)。如果 LLM 的成功来源于捕捉项与项之间大量的统计相关性,那么在关键步骤缺失时,如何处理相关性并推理因果关系?因此,该研究认为 CORR2CAUSE 推理是大型语言模型 (LLM) 的一项必备技能。

构建数据集


首先,该研究收集整理了一个 CORR2CAUSE 数据集,用于测试大型语言模型纯粹的因果推理能力。该数据集中的所有问题都围绕 LLM 何时从相关性推断出因果关系的有无。为了系统地形成 CORR2CAUSE 数据集,该研究将泛化过程置于因果发现的正式框架中(Spirtes et al., 1993, 2000; Glymour et al., 2016; Spirtes and Zhang, 2016; Glymour et al., 2019),其中涵盖如何根据变量在观测数据中的统计相关性推断变量之间因果关系的规则。


CORR2CAUSE 数据集包含 400K 个样本,有效样本占 18.57%,当且仅当统计相关性和潜在因果关系之间存在双射映射时,才将相关性 - 因果关系陈述对标记为有效。


基于 CORR2CAUSE 数据集,该研究主要分析两个问题:


  • 现有的 LLM 在此任务上表现如何? 

  • 现有的 LLM 是否可以针对此任务进行重新训练或重新定位并获得强大的因果推理技能?


该研究通过实验表明,现有 17 个 LLM 在这个纯因果推理任务上表现均不佳。并且,尽管 LLM 在对数据进行微调后可以表现出更好的性能,但其因果推理技能并不稳健。


实验结果


现有 LLM 的 CORR2CAUSE 能力


如下表 4 所示,对于实验中所有 LLM 来说,纯因果推理都是一项非常具有挑战性的任务。其中,BART MNLI 的 F1 值最高,为 33.38%,甚至高于 GPT-4(29.08%)。值得注意的是,许多模型的表现比随机猜测还要差,这意味着它们在纯因果推理任务中完全失败。


微调后的性能


接下来要解决的问题是:能否让 LLM 重新学习这项任务?


从下表 5 (a) 中的实验结果来看,在 CORR2CAUSE 上进行微调的 12 个模型表现得比较好,大多数模型都获得了显著的性能提升。其中,基于 BERT 的 NLI 模型微调之后表现最佳,RoBERTa-Large MNLI 在这个任务上达到了 94.74% 的 F1 分数,以及非常高的精确度、召回率和准确率得分。



同时,上图 5 (b) 展示了受到干扰时各模型的实验结果,所有模型的性能都在急剧下降,表现最好的模型 RoBERTa-Large MNLI 则是性能下降最多的模型;然而,RoBERTa-Large MNLI 对变量重构最稳健,保持了 67.87 的较高 F1 分数。总的来说,现有 LLM 的稳健性比较差。


除了上述整体结果,该研究还进行了细粒度分析,以探索最强模型 RoBERTa-Large MNLI 在六种因果关系类型上的表现。


如下表 6 (a) 所示,RoBERTa-Large MNLI 模型在判断关系方面表现非常好,例如「Is-Parent」、「Is-Descendant」和「Has-Confounder」,这些 F1 分数都超过了 96%。然而,在「Has-Collider」关系上,它的表现稍微弱一些。这可能是因为 collider 关系是最特殊的类型,需要基于仅有的两个变量的无条件独立性和在有共同后代的条件下的相关性来识别 V-structure。


感兴趣的读者可以阅读论文原文,了解更多研究细节。



© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
一年级的孩子考试不及格,我不生气,是因为我有定心丸明日云讲堂 | 韩吴:实验个体干扰下的因果推断 – 假设检验与估计告春鸟、春告鸟对话中国大模型的最早推行者黄铁军:全球可能只需要三个大模型生态因为计算题丢分差点不及格,我不用题海战术也能帮孩子涨分只给大模型LeetCode编号,也能解题!大模型表现好是源于对训练数据的记忆吗?请不要迷信大模型遇罗克,中华的马丁.路德. 金LLM推理提速2.8倍,CMU清华姚班校友提出「投机式推理」引擎SpecInfer,小模型撬动大模型高效推理《乘梦去飞》&《江南柳》接入Llama 2等33个大模型,上线Prompt模板,百度智能云千帆大模型平台重磅升级大模型评测,也太难了吧阿里达摩院大模型公开课上新!主讲中文个性化对话大模型ChatPLUG和模块化多模态大模型mPLUG-OwlGPT-4拿下最难数学推理数据集新SOTA,新型Prompting让大模型推理能力狂升2023PCIC泛太平洋因果推断大会报名进行中百度华为阿里等入选大模型“国家队”;盘古大模型3.0发布;阿里云推AI绘画大模型丨AIGC大事日报乌军反攻,俄军所料不及,首战落败,对普京的九个想不到打破信息茧房,因果推断赋能推荐系统达摩院发布大模型测试基准:GPT-4勉强及格,其他模型悉数落败健行太难了!墨尔本最大网红打卡点六周内关闭!人均15刀,网友:不去真来不及了!大模型的思想钢印:如何让ChatGPT相信水是有毒的?​中文信息处理实验室最新研究揭示虚假信息在大模型中的扩散机制GPT-4使用混合大模型?研究证明MoE+指令调优确实让大模型性能超群GPT-4推理太离谱!大学数理化总分没过半,21类推理题全翻车,马库斯:AGI太遥远大型语言模型技术公开课上线4讲!直播讲解ChatGPT开源平替、类GPT4低成本定制以及GPT4ToolsLlama2等30+模型接入千帆大模型平台,推理成本降50%!还有超全Prompt模板开放体验私荐||斗茶离奇落败,到底是谁在克李亚鹏?360正式发布自研大模型,周鸿祎:国产大模型追赶GPT4的速度远超想象大羊驼、羊驼、小羊驼和ChatGPT比差在哪儿?CMU副教授测评了7个类ChatGPT大模型XD证券放大招:大家都考试去吧!三年考不过就开除!赠书|因果推断实证领域力作斯科特·坎宁安的《因果推断》终于来啦吉利将推自研大模型;OpenAI提交GPT-5商标申请;谷歌助手拟引入大模型丨AIGC大事日报火星乐园第三部《灰界》第六章 末日精英3部破3000万、7成能及格,2023甜宠剧升级大模型训练太难了!【教育】法国名校有多卷?是马克龙都考不上的程度
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。