Redian新闻
>
谷歌DeepMind力证:GPT-4终局是人类智慧总和!Transformer模型无法超越训练数据进行泛化

谷歌DeepMind力证:GPT-4终局是人类智慧总和!Transformer模型无法超越训练数据进行泛化

公众号新闻



  新智元报道  

编辑:润 alan
【新智元导读】Transformer模型是否能够泛化出新的认知和能力?最近,谷歌的研究人员进行了有关实验,对于这一问题给出了自己的答案。

Transformer模型是否能够超越预训练数据范围,泛化出新的认知和能力,一直是学界争议已久的问题。

最近谷歌DeepMind的3位研究研究人员认为,要求模型在超出预训练数据范围之外泛化出解决新问题的能力,几乎是不可能的。

LLM的终局就是人类智慧总和?

论文地址:https://arxiv.org/abs/2311.00871

Jim Fan转发论文后评论说,这明确说明了训练数据对于模型性能的重要性,所以数据质量对于LLM来说实在是太重要了。

研究人员在论文中专注于研究预训练过程的一个特定方面——预训练中使用的数据——并研究它如何影响最终Transformer模型的少样本学习能力。

研究人员使用一组来作为输入和标签,  来对新输入的的标签进行预测。要训练模型做出这样的预测,需要在形式的许多序列上拟合模型。

研究人员使用包含多种不同函数类别的混合对Transformer模型进行预训练,以便在上下文中学习,并展示了所表现出的模型选择行为(Model Selection Phenomena)。

他们还研究了预训练Transformer模型在与预训练数据中的函数类别 「不一致 (out-of-distribution)」的函数上的情境学习行为。

通过这种方式,研究人员研究了预训练数据组成与Transformer模型对相关任务进行少量学习的能力之间的相互作用和影响后发现:

1. 在所研究的机制中,有明确的证据表明,模型在上下文学习过程中可以在预训练的函数类别中进行模型选择,而且几乎不需要额外的统计成本。

预训练数据中各个稀疏程度的线性函数都被很好地覆盖的情况下,Transformer可以进行近似最优的预测。

2. 但几乎没有证据表明,模型的上下文学习行为能够超出其预训练数据的范围。

当组合函数主要来自一个函数类时,预测合理。当两个类同时显著贡献时,预测失效。

对于预训练数据中极为罕见的高低频正弦函数,模型的泛化会失败。

研究过程细节

首先,为了避免产生误解,这里先声明本实验所采用的模型:类似于GPT-2,包含12层,256维嵌入空间。

之前提到了文章使用不同函数混合的方法进行研究,

那么我们不禁要问:「当提供支持预训练混合的上下文示例时,模型如何在不同的函数类之间进行选择?」

之前的研究表明,在线性函数上预训练的Transformer在对新的线性函数进行上下文学习时表现几乎最优。

于是研究人员采用两个线性模型来进行研究:一个在密集线性函数上训练(其中线性模型的所有系数都是非零的),另一个在稀疏线性函数上训练(假设20个系数中只有2个是非零的)。

每个模型分别对新的密集线性函数和稀疏线性函数执行相应的线性回归和套索回归(Lasso)。此外,还将这两个模型与在稀疏线性函数和密集线性函数的混合上预训练的模型进行了比较。

上图显示,在以D(F) = 0.5*D(F1)+0.5*D(F2)的比例混合两个函数的情况下,新的函数在上下文学习中的表现与仅在一个函数类上预训练的模型相似。

而在新的混合函数上预训练的模型与前人研究中所展示的模型(理论上最优)相似,因此可以推断该模型也几乎是最优的。

上图中的ICL学习曲线向我们表明,这种上下文模型选择能力相对于提供的上下文示例数量相对一致。

我们还可以看到,与纯粹基于该函数类预训练模型相比,对于给定函数类,这种使用权重来进行预训练数据混合的ICL学习曲线几乎与最佳基线样本复杂度相匹配。

上图还表明,Transformer模型ICL泛化存在分布不均。尽管密集线性类和稀疏线性类都是线性函数,但我们可以看到上图(a)中的红色曲线性能较差,而相应的,图(b)中的蓝色曲线性能较差。

这表明该模型能够执行模型选择,以选择是否仅使用预训练组合中一个基函数类或另一个基函数类的知识进行预测。

事实上,当上下文中提供的示例来自非常稀疏或非常密集的函数时,预测几乎与分别在仅稀疏或仅密集数据上预训练的模型所做的预测相同。

模型的局限性 

之前的实验展示了混合预训练数据的情况,下面我们来探索一些明确脱离所有预训练数据的函数。

作者在这里研究了模型沿两个轴的ICL泛化能力:从未见过的函数,以及函数的极端版本(频率比预训练中通常看到的频率高得多或低得多的正弦曲线)上的性能。

在这两种情况下,研究人员几乎没有发现分布外泛化的证据。

上图显示,Transformer在中等稀疏度水平(nnz=3到7)下的预测与预训练时提供的任何函数类的任何预测都不相似,而是介于两者之间。

因此,可以假设该模型具有一些归纳偏差,可以组合预训练的函数类。

但是,人们可能会怀疑该模型可以从预训练期间看到的函数组合中产生预测。

所以作者在具有明显不相交的函数类的背景下检验这一假设,研究了对线性函数、正弦函数和两者的凸组合执行 ICL 的能力。

上图显示,虽然模型在线性函数和正弦曲线的混合上进行预训练(即D(F) = 0.5*D(F1)+0.5*D(F2))能够分别对这两个函数中的任何一个做出良好的预测,但它无法拟合两者的凸组合的函数。

然而,我们仍然可以假设:当上下文中的示例接近在预训练中学习的函数类时,模型能够选择用于预测的最佳函数类。

在图 5 中,研究人员扫描了凸组合中线性函数和正弦波的相对权重。在这里,研究人员观察到,当组合函数主要来自一个函数类或另一个函数类时——即通过预训练期间学习的函数类很好地近似——上下文预测是合理的。

但是,当这两个函数对凸组合有显著贡献时,模型会做出不稳定的预测,而上下文示例并不能很好地证明其合理性。这表明模型的模型选择能力受到与预训练数据的接近程度的限制,并表明功能空间的广泛覆盖对于广义的上下文学习能力至关重要。

前面的凸组合是专门构造的,因此模型在预训练中从未见过类似的函数。

网友热议

面对文章的结论,Jim Fan给出了略带嘲讽的评价:

「本文相当于:尝试只在狗和猫的数据集上训练ViT。使用100B狗/猫图像和1T 参数!现在看看它是否能识别飞机——令人惊讶的是,它不能!」

但是有好事的网友把这个事请拿去问了下ChatGPT,它自己却回答说,自己可以超越训练数据输出新的内容。

而网友对于Transformer的这个局限还是很宽容的,毕竟,人类也不行。

AIGC的火热引起人们对于模型能力的广泛研究,对于我们无法完全了解的、却广泛应用于社会和生活中的「 人工智能 」,知道它的边界在哪里也很重要。

参考资料:
https://arxiv.org/abs/2311.00871




微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
有钱的加拿大人NeurIPS 2023 | MCUFormer: 可在内存有限微控制器上部署的Vison Transformer模型Transformer变革3D建模!MeshGPT来了!效果惊动专业建模师。。。DeepMind大模型登Science:1分钟预测10天天气数据,90%指标超越人类最强模型2028年第一个AGI将到来?谷歌DeepMind提6条AGI标准,定义5大AGI等级时间的湾 1Sam Altman预言2030年前出现AGI,GPT-10智慧将超越全人类总和!卷积网络又行了?DeepMind推翻Transformer最强传说,LeCun怒赞国外Java工程师力证:GPT-4不能解决逻辑谜题,但确实具备推理能力AI无法颠覆化学?谷歌DeepMind论文被爆重大缺陷,伦敦大学教授建议撤回Nature1分钟预测10天全球天气!谷歌DeepMind全新AI天气预报登上Science,碾压行业SOTA6002 血壮山河之随枣会战 “和平运动 ”2Transformer变革3D建模,MeshGPT生成效果惊动专业建模师,网友:革命性idea超越GPT-4!谷歌DeepMind重磅发布Gemini,史上最强最通用大模型!UC伯克利等发布多模态基础模型CoDi-2;谷歌DeepMind利用AI工具发现200万种新材料丨AIGC日报NeurIPS 2023 | MixFormerV2:基于Transformer的高效跟踪器ICCV 2023 | 浙大&阿里提出:基于Transformer的可泛化人体表征来了!DeepMind指出「Transformer无法超出预训练数据实现泛化」,但有人投来质疑第三章第三节 欧洲中国不同的社会演变谷歌大模型研究陷重大争议:训练数据之外完全无法泛化?网友:AGI奇点推迟了ChatGPT狂吐训练数据,还带个人信息:DeepMind发现大bug引争议谷歌DeepMind力证:Transformer模型无法超越训练数据进行泛化!GPT-4终局是人类智慧总和!GPT turbo 看了没?!这真是大批失业人员在路上。ICCV 2023 | 通向3D感知大模型的必由之路!UniTR:统一多模态Transformer Encoder!chat gpt 怎么上不去了? 彻底罢工了《军营飞来一只白灵》&《我想我是海》NeurIPS 2023 | 结合脉冲神经网络和Transformer的纯加法Transformer矩阵模拟!Transformer大模型3D可视化,GPT-3、Nano-GPT每一层清晰可见起底PC新机皇:高通4nm芯片,Arm架构Windows系统,内置Transformer加速,还配了5G和WiFi7谷歌DeepMind给AGI划等级,猜猜ChatGPT在哪个位置Hyena成下一代Transformer?StripedHyena-7B开源:最高128k输入,训练速度提升50%冷却的不止季节(106)— 提醒Transformer+强化学习,DeepMind让大模型成为机器人感知世界的大脑MIT斯坦福Transformer最新研究:过度训练让中度模型「涌现」结构泛化能力chatGPT之父预言2030年前出现AGI,GPT-10智慧将超越全人类总和!「GPT-4只是在压缩数据」,马毅团队造出白盒Transformer,可解释的大模型要来了吗?Transformer+强化学习,谷歌DeepMind让大模型成为机器人感知世界的大脑ChatGPT狂吐训练数据!还带个人信息!DeepMind发现大bug引争议。。。
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。