Redian新闻
>
AI「黑箱」被打开?谷歌找到大模型能力涌现机制

AI「黑箱」被打开?谷歌找到大模型能力涌现机制

公众号新闻



  新智元报道  

编辑:桃子
【新智元导读】大模型涌现能力如何理解?谷歌的最新论文研究了语言模型中的上下文学习,是如何受到语义先验和输入-标签映射影响。

前段时间,OpenAI整出了神操作,竟让GPT-4去解释GPT-2的行为。

对于大型语言模型展现出的涌现能力,其具体的运作方式,就像一个黑箱,无人知晓。

众所周知,语言模型近来取得巨大的进步,部分原因是它们可以通过上下文学习(ICL)来执行任务。

上下文学习是一种过程,模型在对未见过的评估样本执行任务之前,会先接收几个输入-标签对的范例。

在谷歌最新发表的论文中,研究人员研究了语义先验,以及输入-标签映射在ICL中如何相互作用。

论文地址:https://arxiv.org/pdf/2303.03846.pdf

特别是,语言模型在上下文学习能力,如何随着参数规模而改变。

论文一作Jerry Wei表示,大型语言模型(GPT-3.5、PaLM)可以遵循上下文中的范例,即使标签被翻转或在语义上不相关。这种能力在小型语言模型中是不存在的。

网友表示,这对模型新的涌现能力很有见解。

AI「黑箱」怎么破?


一般来说,模型能够在上下文中学习,有以下2个因素:

一种是使用预先训练的语义先验知识来预测标签,同时遵循上下文范例的格式。

比如,见到以「积极情绪」和「消极情绪」作为标签的影评例子,并用先验知识进行情感分析。

另一种是从提供的范例中,学习ICL中的输入-标签映射。比如,找到正面评价映射到一个标签,而负面评价映射到另一个标签的模式。

最新研究的目标就是为了了解这两个因素在上下文中如何作用。

因此,在论文中,研究者调查了两个设置来进行研究:翻转标签ICL,语义无关标签的ICL (SUL-ICL)。

翻转标签ICL和语义无关标签ICL(SUL-ICL)在情感分析任务中的概述

在翻转标签ICL中,上下文范例的标签被翻转,强制模型覆盖语义先验,以遵循上下文范例。

在SUL-ICL中,使用与任务无语义关系的标签,意味着模型必须学习输入标签映射才能执行任务,因为它们不再依赖于自然语言标签的语义。

研究者发现,覆盖先验知识是模型规模能力,就像在上下文中学习与语义无关的标签的能力一样。

此外,指令调优加强了先验知识的使用,而不是增加了学习输入-标签映射的能力。

实验过程


对于实验数据,研究者在七个广泛使用的NLP任务上展开实验,包括情感分析,主观/客观分类,问题分类,重复问题识别,蕴涵识别,金融情绪分析和仇恨语音检测。

此外,研究人员还对五种语言模型进行了测试:PalM、Flan-PalM、GPT-3、DirectGPT和Codex。

翻转标签

在这个实验中,上下文示例的标签被翻转,这意味着先验知识和输入-标签映射不一致。比如,包含积极情绪的句子被标记为「消极情绪」,从而研究模型是否可以覆盖其先验知识。

在此设置中,能够覆盖先验知识,并在上下文中学习输入-标签映射的模型性能会下降,因为真实评估标签没有被翻转。

研究者还发现当没有标签被翻转时,参数规模较大的模型比较小的模型,拥更好的性能。

但是,当翻转越来越多的标签,小型模型的性能保持相对平稳,但大型模型的性能大幅下降,远低于随机猜测。

比如,code-davinci-002的性能从90%下降到22.5%。

这些结果表明,当输入标签映射相互矛盾时,大模型可以覆盖预训练的先验知识。

小型模型无法做到这一点,这使得这种能力成为模型规模的涌现现象。

语义无关的标签

在这个实验中,研究人员用语义无关的标签替换原来标签。

比如,在情感分析中,用「foo/bar」代替「消极/积极」 ,这意味着模型只能通过学习输入-标签映射来执行 ICL。

如果一个模型主要依赖于ICL的先验知识,那么在这种替换之后,它的性能应该会下降,因为它将不再能够使用标签的语义意义来进行预测。

另一方面,可以在上下文中学习输入-标签映射的模型,将能够学习这些语义不相关的映射,其性能不会出现大幅的下降。

事实上,使用语义无关的标签会导致小型模型的性能大幅下降。

这表明较小的模型主要依赖于它们在上下文中的语义先验,而不是从提供的输入标签映射中学习。

另一方面,当标签的语义特性被移除时,大型模型具有在上下文中学习输入标签映射的能力。

此外,研究人员还发现,包含更多的上下文范例对大型模型的性能改善,比对小型模型的性能改善更大。

显然,大型模型比小型模型更善于从上下文范例中学习。

指令调优模型如何?


当前,指令调优是提高模型性能比较流行的一种方法。

然而,由于该过程使用自然语言标签,一个悬而未决的问题是,它是否提高了学习输入-标签映射的能力,或者它是否加强了识别和应用语义先验知识的能力。

这两者都将导致标准上下文任务性能的提高。

研究人员继续通过与前面相同的两个设置来研究这个问题,只是这一次将重点放在比较标准语言模型(特别是 PaLM)和它们的指令调优变体(Flan-PaLM)上。

首先,当使用语义不相关的标签时,Flan-PalM比PalM性能更好。

这种效应在小型模型中非常显著,因为Flan-PalM-8B的性能比PaLM-8B高9.6% ,几乎赶上了PaLM-62B。

这种趋势表明,指令调优加强了学习输入标签映射的能力,但这并不是令人惊讶的发现。

更有趣的是,研究者还发现Flan-PalM在遵循翻转标签上比PalM更差,这意味着指令调优模型无法覆盖它们的先验知识。

在100%翻转标签的情况下,Flan-PaLM模型无法做到随机猜测,但是在相同的设置下,没有进行指令调优的PaLM模型可以达到31%的准确率

这些结果表明,指令调优必须增加模型在语义先验可用时的依赖程度。

结合前面的研究结果,研究者得出结论:虽然指令调优提高了学习输入-标签映射的能力,但它更强化了语义先验知识的使用。

谷歌这篇论文强调了语言模型的ICL行为如何根据其参数而改变,并且更大的语言模型具有将输入映射到许多类型的标签的涌现能力。

这是一种推理形式,其中输入-标签映射可以潜在地学习任意符号。

未来,更进一步的研究可以帮助人们去了解为什么这些现象会与模型参数相关。

参考资料:
https://ai.googleblog.com/2023/05/larger-language-models-do-in-context.html




微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
破解大模型「涌现」之谜:新奇性搜索是AI腾飞的踏脚石绿研院日报 | 刘庆峰:把认知大模型的“智慧涌现”掌握在中国人手里意外地好!!!!!Microsoft 必应图像创建者ChatGPT上下文碾压64K开源模型!UC伯克利:开源模型能力严重「虚标」|最新硬核评测曝光谷歌将推新版大模型;抖音发布AIGC平台规范;宇视推出行业大模型 | AIGC日报九剑一魂 - 第23回 太子遇害 贾后伏诛(九)启元世界CEO袁泉:能力涌现不只与模型大小相关,AGI开启元宇宙实现之路 | 中国AIGC产业峰会「成熟」大模型才能涌现?MIT:GPT-4能自我纠错代码,GPT-3.5却不行斯坦福最新研究警告:别太迷信大模型涌现能力,那是度量选择的结果聆思科技徐燕松:生成式大模型潮流下,智能家居端侧智能化涌现变革大模型的思想钢印:如何让ChatGPT相信水是有毒的?​中文信息处理实验室最新研究揭示虚假信息在大模型中的扩散机制这条「冰箱」拿出来的裤子,上身冰冰凉凉,还显瘦,今年夏天给我穿它!“他者”涌现:生成式人工智能大模型漫谈智源黄铁军:大模型智能涌现令人兴奋,没有绝对壁垒,成败关键在生态阿里达摩院大模型公开课上新!主讲中文个性化对话大模型ChatPLUG和模块化多模态大模型mPLUG-Owl行业观察|​商汤加入AI大模型混战,更看重模型能力而非规模爱晒衣服的日本人大模型的涌现能力介绍李彦宏为什么认为大模型能改变世界?只给大模型LeetCode编号,也能解题!大模型表现好是源于对训练数据的记忆吗?请不要迷信大模型Bard还考不上哈佛?谷歌CEO劈柴预告它即将开挂,数学逻辑能力飙升AutoGPT与GPT-4的能力涌现|投资人播客分享是什么让ChatGPT变得如此聪明?仍然未知的大语言模型“能力涌现”现象 |【经纬科创汇*AI】文心一言迭代数据曝光,QPS提升10倍,留给大模型创业玩家的涌现时间不多了愚人节恶搞?谷歌一度显示斯里兰卡卢比大幅升值;六项能源举措批准!三星换必应?谷歌急了,全力推进新AI搜索引擎长篇小说《如絮》第一百零三章 哈尔滨-1952-1953年 2 任务如此简单!谷歌揭示大模型能力涌现机制斜风细雨不须归大模型涌现,工信部将采取三方面举措推动我国算力高质量发展如何更好地蒸馏ChatGPT模型能力:Lion闭源大型语言模型的对抗性蒸馏模型原理及实验工作介绍Bard是拿ChatGPT数据训练的?谷歌顶级科学家抗议无果,出走OpenAI当脱口秀演员成为 ChatGPT,阿里版大模型能给我们多少惊喜?顺序决策与基础模型如何交叉互惠?谷歌、伯克利等探讨更多可能百度华为阿里等入选大模型“国家队”;盘古大模型3.0发布;阿里云推AI绘画大模型丨AIGC大事日报
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。