Redian新闻
>
MIT斯坦福Transformer最新研究:过度训练让中度模型「涌现」结构泛化能力

MIT斯坦福Transformer最新研究:过度训练让中度模型「涌现」结构泛化能力

公众号新闻



  新智元报道  

编辑:润
【新智元导读】过度训练让中度模型出现了结构泛化能力。

对于人类来说,句子是分层的。

句子的层次结构对于表达和理解都相当重要。

但是在自然语言处理中,之前的研究认为,在泛化到新的结构输入时,以Transformer为代表的神经序列模型似乎很难有效地捕捉到这种句子的层级结构。

但是斯坦福和MIT的研究人员在最近的研究中发现。

如果对Transformer类的模型进行长时间的训练之后,它能获得这种结构性的泛化能力。

研究人员将这种现象称为:结构顿悟(Structural Grokking,SG)

Grokking这个词是一个作家在书中造出来的词,中文大概翻译成「顿悟」。

微博网友木遥老师把这个词解释为:一个高度复杂的神经网络在漫长的训练期内一直只能记住训练样本的信息,几乎没有泛化能力,但到了某一刻,它的泛化水平忽然跳了出来,而且非常完美。

可以想象成一个神经网络经历了一个「aha moment」,像是内部的某个齿轮忽然对上了一样。

论文地址:https://arxiv.org/abs/2305.18741

研究人员在不同的数据集中发现,SG在模型的深度(Model Depth)上呈现倒U缩放。

中深度模型的泛化能力比非常深和非常浅的模型都要好。

总体上看,如果能对模型进行更多的扩展训练,普通的Transformer能够展现出层级结构。

背景

在之前的类似研究中,研究人员认为Transformer在分层级泛化测试中是失败的。

Transformer模型中的分层级结构

为了了解给定的模型是否对获取层次结构有偏见,斯坦福的研究人员按照之前的实验流程,评估了模糊任务上训练的模型的泛化性。

在这些任务中,训练数据与“层次规则”和“非层次规则”相一致的。

为测试是否获得了分层规则,研究人员在一个单独的分布外测试集上测试泛化性。

顿悟(Grokking)

之前的研究表明,在小型算法数据集上会出现顿悟现象,他们发现在训练性能饱和后的很长时间里,模型测试性能继续提高。

因此研究人员就假设存在一个类似的结构顿悟,在域内验证性能饱和后很长时间内,模型对于分层结构依然可以继续顿悟。

因此,分层泛化可以通过扩展训练继续提高。

实验

数据集

研究人员的目标是理解transformer中的分层泛化 , 使用了来自之前研究中的两个数据集,并在一个简单的括号跟踪任务上进行了评估。

我们评估了Dyck20,10中结构上未观察到的字符串的泛化能力,以下图为例。

模型

研究人员训练了有{2,4,6,8,10}层的transformer语言模型。

对于每个深度,研究人员用10个随机种子来训练模型,300k steps。(Dyck为400k)

给定输入句子(或在Dyck的情况下前缀),研究人员在测试时从模型中解码。

对于Dyck,研究人员报告准确性是通过在给定语言的输入前缀的情况下,通过对右括号进行排名来生成正确的右括号类型。

和之前已经进行的研究类似,对于Question-Formation,研究人员报告解码问题的第一个单词的准确性。

对于Tense-Inflection,研究人员报告的是目标动词词形变化正确的测试输入的分数。

主要结果

Transformers展现出了结构顿悟。

研究人员在下图中展示了在所有数据集上使用最佳模型深度所获得的结果。

他们发现了明确的结构顿悟证据:在各个数据集上,在分布内准确率饱和之后的训练步骤中,泛化性能得到改善,有时甚至接近完美的准确率。

提前停止是有害的

接下来,研究人员将通过在域内验证准确率上进行提前停止而获得的泛化准确率,与更长的训练流程(如下图)的泛化准确性进行了比较。

提前停止会导致泛化性能被严重低估。

例如,在Question-Formation和Tense-Inflection两个任务上,平均泛化性能从不到40%、不到50%提高到分别不到90%、不到80%。

倒U形分布

在Question-Formation和Tense-Inflection任务中,研究人员从2层到10层逐渐增加深度进行模型训练。

对于每个深度,在下图中报告了最终泛化准确率超过80%的种子数(10个种子中的比例)。

他们发现了一个倒U形的分布状态——非常浅和非常深的模型效果不佳,而大多数种子在中等深度的模型中表现出较好的泛化性能。

这也可以解释为什么之前的研究要么使用非常浅的模型(1-3层的Transformer),要么使用非常深的模型(Mueller等人论文中的12层Transformer),都无法很好地泛化。

分析

鉴于结构顿悟仅在一部分模型架构中发生,研究人员能否确定它何时发生(或预测何时会发生)?

几个模型内部属性与结构性理解或Transformer中出现的新兴分层结构或许有关。

Weight Norms

最近的研究将认为参数权重的L2 norm是结构顿悟的重要量。

但总体上来说,训练过程中范数(Norms)增长被作为神经网络泛化的关键因素之一进行了研究。

注意力稀疏性

Merrill等人(2021年)证明了Transformer中的范数增长导致了注意力的饱和,这是新兴语言结构的重要特性(Merrill等人,2022年)。为了衡量fLθ的注意力稀疏性,我们计算了所有分布{apk}的负均熵。

树结构

之前有研究展示了树结构编码器表现出接近完美的分层泛化。

虽然Transformer相对较为自由,但最近的证据表明,当在语言数据上进行训练时,它们隐含地实现了(近似)树结构计算。

而且,之前研究中树投影方法精确地描述了Transformer对输入进行的内部计算可以用树结构神经编码近似的程度,为任何Transformer提供了树结构度量分数(tscore),并提供了一个在输入字符串上最佳近似其计算的二叉树。

为了评估这些树是否与人类的句法概念相对应,我们还将恢复的树与黄金标准树进行比较。

结果

在Question-Formation和Tense-Inflection任务中,研究人员通过每隔3k steps更新计算一次这些量的方式来描述权重范数(通过层数统一化来比较不同模型深度)、注意力稀疏性和树结构性的动态变化情况。

对于依赖于数据的属性,如注意力稀疏性和树结构性,我们从训练数据中随机抽取了10k个样例。

研究人员在下图中绘制了这些量在最小模型、最大模型(其中至少有一个运行显示成功的结构顿悟)以及最佳模型深度的情况。

树形结构是最佳的模型

在两个数据集的所有模型设置中,权重范数和注意力稀疏性都会增长。

然而,仅凭这些属性本身无法预测浅层和深层模型的失败 - 浅层模型学习到了最稀疏的解以及具有最大权重范数的解,但从未进行分层泛化。

正如之前的研究中所指出的,tscore随时间的推移对于所有模型都有所改善,表明随着时间的推移,树结构性增加。

对于这两个数据集,与深层和浅层模型相比,“最佳”模型学习到了最多的树结构解。

在算法任务中,结构性理解“与嵌入中结构的出现相吻合”。

类似地,在语言任务中,我们发现结构性理解与树状内部计算的出现相吻合。

Transformer在诱导结构方面表现出惊人的效果

从下图的tparseval的动态变化中,研究人员注意到所有模型,无论它们是否进行泛化,都学习到了接近于真实句法的结构,有时表现优于右分支基线。

之前的研究认为,只有树结构编码器根据正确的句法分析树进行结构化时才能进行泛化。

研究人员发现所有Transformer都学习到了正确的树结构,但只有最具树结构性的模型表现出最好的泛化能力。

结论

这项研究表明,通过结构顿悟机制,Transformer能够展现出对结构敏感的“分层泛化”。

它们的整体学习行为逐渐从记忆(领域内高准确率,领域外准确率较差)向泛化(领域内和领域外准确率高)转变。

虽然研究人员在相对较小的数据集和小型模型上展示了这种行为,但这些结果可能具有更广泛的意义。

因为已经证明长时间的训练即使对于规模庞大的语言建模和组合泛化任务也有帮助。

结构顿悟在“中等规模”的模型深度最常发生,而非常浅和非常深的模型则无法展现出这种行为。

虽然以往与Transformer中的语言泛化相关的属性,如权重范数和注意力稀疏性,不能区分好的架构和坏的架构,但Transformer的功能性树结构可以很好地预测最佳模型深度。

虽然Transformer架构存在一些明显的限制(例如无法实现无限递归),但研究人员的结果表明它可能具有比以前认为的更强的归纳偏好:通过充分的训练,Transformer能够表示分层的句子结构并利用这种结构进行正确的泛化。

参考资料:
https://arxiv.org/abs/2305.18741




微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
「GPT-4只是在压缩数据」,马毅团队造出白盒Transformer,可解释的大模型要来了吗?Meta对Transformer架构下手了:新注意力机制更懂推理福建永定土楼AAAI 2024 | 浙大赵天成博士团队提出全新评测基准OVDEval,全面审视开放词汇目标检测模型的泛化能力卷积网络又行了?DeepMind推翻Transformer最强传说,LeCun怒赞仅根据蛋白质序列便可预测相互作用界面,一种基于Transformer的蛋白预测模型改进分子表征学习,清华团队提出知识引导的图 Transformer 预训练框架我在Performer中发现了Transformer-VQ的踪迹冷却的不止季节(114)— 严重基于Transformer和注意力的可解释核苷酸语言模型,用于pegRNA优化设计谷歌DeepMind力证:GPT-4终局是人类智慧总和!Transformer模型无法超越训练数据进行泛化大语言模型里的Transformer还可以这么用?矩阵模拟!Transformer大模型3D可视化,GPT-3、Nano-GPT每一层清晰可见Robot Transformers 是什么 Transformer?NeurIPS 2023 | 结合脉冲神经网络和Transformer的纯加法TransformerYann LeCun点赞!Meta对Transformer架构下手了:新注意力机制更懂推理芝加哥马拉松经历- -欢乐篇Transformer挑战者出现!斯坦福CMU联合团队,开源模型及代码,公司已创办AAAI 2024 | 中科院信工所提出结构化概率编码框架,有效增强预训练语言模型泛化能力LeCun引战,LLM根本不会推理!大模型「涌现」,终究离不开上下文学习起底PC新机皇:高通4nm芯片,Arm架构Windows系统,内置Transformer加速,还配了5G和WiFi7Hyena成下一代Transformer?StripedHyena-7B开源:最高128k输入,训练速度提升50%南开&山大&北理工团队开发trRosettaRNA:利用Transformer网络自动预测RNA 3D结构Nature | 30多年前的断言被打破了?大模型具备了人类水平的系统泛化能力游武夷山ConvNet与Transformer谁更强?Meta评测4个领先视觉模型,LeCun转赞NeurIPS 2023 | MixFormerV2:基于Transformer的高效跟踪器Transformer是唯一选择吗?无Attention和MLP的语言模型反而更强了谷歌DeepMind力证:Transformer模型无法超越训练数据进行泛化!GPT-4终局是人类智慧总和!哈马斯般的突袭战术对哪些国家能造成打击ICCV 2023 | 浙大&阿里提出:基于Transformer的可泛化人体表征来了!NeurIPS 2023 | MCUFormer: 可在内存有限微控制器上部署的Vison Transformer模型Transformer变革3D建模,MeshGPT生成效果惊动专业建模师,网友:革命性ideaTransformer变革3D建模!MeshGPT来了!效果惊动专业建模师。。。DeepMind指出「Transformer无法超出预训练数据实现泛化」,但有人投来质疑
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。