Redian新闻
>
Transformer升级之路:长度外推性与位置鲁棒性

Transformer升级之路:长度外推性与位置鲁棒性

科技


©PaperWeekly 原创 · 作者 | 苏剑林
单位 | 追一科技
研究方向 | NLP、神经网络


上一篇文章《Transformer升级之路:长度外推性与局部注意力》我们讨论了 Transformer 的长度外推性,得出的结论是长度外推性是一个训练和预测的不一致问题,而解决这个不一致的主要思路是将注意力局部化,很多外推性好的改进某种意义上都是局部注意力的变体。

诚然,目前语言模型的诸多指标看来局部注意力的思路确实能解决长度外推问题,但这种“强行截断”的做法也许会不符合某些读者的审美,因为人工雕琢痕迹太强,缺乏了自然感,同时也让人质疑它们在非语言模型任务上的有效性。

本文我们从模型对位置编码的鲁棒性角度来重新审视长度外推性这个问题,此思路可以在基本不对注意力进行修改的前提下改进 Transformer 的长度外推效果,并且还适用多种位置编码,总体来说方法更为优雅自然,而且还适用于非语言模型任务。




问题分析
在之前的文章中,我们分析了长度外推性的缘由,给出了“长度外推性是一个训练和预测的长度不一致的问题”的定位,具体不一致的地方则有两点:
1. 预测的时候用到了没训练过的位置编码(不管绝对还是相对);
2. 预测的时候注意力机制所处理的 token 数量远超训练时的数量。

其中,第 2 点说的是更多的 token 会导致注意力更加分散(或者说注意力的熵变大),从而导致的训练和预测不一致问题,其实我们在《从熵不变性看Attention的Scale操作》已经初步讨论并解决了它,答案是将 Attention 从:

修改为:
其中 m 是训练长度,n 是预测长度。经过这样修改(下面简称为“ 缩放注意力”),注意力的熵随着长度的变化更加平稳,缓解了这个不一致问题。个人的实验结果显示,至少在 MLM 任务上,“ 缩放注意力”的长度外推表现更好。
所以,我们可以认为第 2 点不一致性已经得到初步解决,那么接下来应该是先集中精力解决第 1 点不一致性。



随机位置

第 1 点不一致性,即“预测的时候用到了没训练过的位置编码”,那么为了解决它,就应该做到“训练阶段把预测所用的位置编码也训练一下”。一篇 ACL22 还在匿名评审的论文《Randomized Positional Encodings Boost Length Generalization of Transformers》[1] 首次从这个角度考虑了该问题,并且提出了解决方案。

论文的思路很简单:
随机位置训练 设 为训练长度(论文 ), 为预测长度(论文 ),那么选定一个较大 (这是一个超参,论文 ),训练阶段原本长度为 的序列对应的位置序列是 [0,1,···,N-2,N-1],现在改为从 中随机不重复地选 个并从小到大排列,作为当前序列的位置序列。
基于 numpy 的参考代码为(代码的位置从 0 开始):
1def random_position_ids(N, L=2048):
2    """从[0, L)中随机不重复挑N个整数,并从小到大排列
3    """

4    return np.sort(np.random.permutation(L)[:N])

预测阶段,也可以同样的方式随机采样位置序列,也可以直接均匀采样位置序列(个人的实验效果显示均匀采样的效果一般好些),这就解决了预测阶段的位置编码没有被训练过的问题。

不难理解,这是一个很朴素的训练技巧(下面称之为“随机位置训练”),目标是希望 Transformer 能对位置的选择更加鲁棒一些,但后面我们将看到,它能取得长度外推效果的明显提升。笔者也在 MLM 任务上做了实验,结果显示在 MLM 上也是有效果的,并且配合“ 缩放注意力”提升幅度更明显(原论文没有“ 缩放注意力”这一步)。



新的基准

很多相关工作,包括上一篇文章提到的各种 Local Attention 及其变体的方案,都以语言模型任务构建评测指标,但不管是单向 GPT 还是双向的 MLM,它们都高度依赖局部信息(局域性),所以之前的方案很可能只是因为语言模型的局域性才有良好的外推表现,假如换一个非局域性的任务,效果可能就变差了。

也许正因为如此,这篇论文的评测并非是常规的语言模型任务,而是 Google 去年在论文《Neural Networks and the Chomsky Hierarchy》[2] 专门提出的一个长度外泛化基准(下面简称该测试基准为“CHE 基准”,即“Chomsky Hierarchy Evaluation Benchmark”),这给我们提供了理解长度外推的一个新视角。

这个基准包含多个任务,分为 R(Regular)、DCF(Deterministic Context-Free)、CS(Context-Sensitive)三个级别,每个级别的难度依次递增,每个任务的简介如下:

Even Pairs难度 R,给定二元序列,如“aabba”,判断 2-gram 中 ab 和 ba 的总数是否为偶数,该例子中 2-gram 有 aa、ab、bb、ba,其中 ab 和 ba 共有 2 个,即输出“是”,该题也等价于判断二元序列的首尾字符是否相同。

Modular Arithmetic(Simple),难度 R,计算由 五个数和 三个运算符组成的算式的数值,并输出模 5 后的结果,比如输入 1 + 2 − 4,那么等于 -1,模 5 后等于 4,所以输出 4。

Parity Check,难度 R,给定二元序列,如“aaabba”,判断 b 的数目是否为偶数,该例子中 b 的数目为 2,那么输出“是”。

Cycle Navigation,难度 R,给定三元序列,其中每个元分别代表 +0、+1、-1 之一,输出从 0 出发该序列最终的运算结果模 5 的值,比如 0,1,2 分别代表+0,+1,-1,那么 010211 代表 0 + 0 + 1 + 0 − 1 + 1 + 1 = 2,模 5 后输出 2。

Modular Arithmetic,难度 DCF,计算由 五个数、括号 (,) 和 三个运算符组成的算式的数值,并输出模 5 后的结果,比如输入 −(1−2)×(4−3×(−2)),那么结果为 10,模 5 后等于 0,所以输出 0,相比 Simple 版本,该任务多了“括号”,使得运算上更为复杂。

Reverse String,难度 DCF,给定二元序列,如“aabba”,输出其反转序列,该例子中应该输出“abbaa”。

Solve Equation,难度DCF,给定由 五个数、括号 (,)、 三个运算符和未知数 组成的方程,求解未知数 的数值,使得它在模 5 之下成立。
比如 −(1−2)×(4−z×(−2))=0,那么 ,解方程虽然看上去更难,但由于方程的构造是在 Modular Arithmetic 的基础上将等式中的某个数替换为 ,所以保证有解并且解在 ,因此理论上我们可以通过枚举结合 Modular Arithmetic 来求解,因此它的难度跟 Modular Arithmetic 相当。

Stack Manipulation,难度 DCF,给定二元序列,如“abbaa”,以及由“POP/PUSH a/PUSH b”三个动作组成的堆栈操作序列,如“POP / PUSH a / POP”,输出最后的堆栈结果,该例子中应该输出“abba”。

Binary Addition,难度 CS,给定两个二进制数,输出它们的和的二进制表示,如输入 10010 和 101,输出 10111,注意,这需要都在字符层面而不是数值层面输入到模型中进行训练和预测,并且两个数字是串行而不是并行对齐地提供的(可以理解为输入的是字符串 10010+101)。

Binary Multiplication,难度 CS,给定两个二进制数,输出它们的和的二进制表示,如输入 100 和 10110,输出 1011000,同 Binary Addition 一样,这需要都在字符层面而不是数值层面输入到模型中进行训练和预测,并且两个数字是串行而不是并行对齐地提供的(可以理解为输入的是字符串 100 × 10110)。

Compute Sqrt,难度 CS,给定一个二进制数,输出它的平方根的下取整的二进制表示,如输入 101001,那么输出结果为 ,这个难度同 Binary Multiplication,因为至少我们可以从 0 到所给数结合 Binary Multiplication 逐一枚举来确定结果。

Duplicate String,难度 CS,给定一个二元序列,如“abaab”,输出重复一次后的序列,该例子应该输出“abaababaab”,这个简单的任务看上去是难度 R,但实际上是 CS,大家可以想想为什么。

Missing Duplicate,难度 CS,给定一个带有缺失值的二元序列,如“ab_aba”,并且已知原始的完整序列是一个重复序列(上一个任务的 Duplicate String),预测确实值,该例子应该输出 a。

Odds First,难度 CS,给定一个二元序列 ,输出 ,如输入 aaabaa,将输出 aaaaba。
Bucket Sort,难度 CS,给定一个 元数值序列(数列中的每个数都是给定的 n 个数之一),返回其从小到大排序后的序列,如输入 421302214 应该输出 011222344。
可以看到,这些任务都具有一个共同特点,就是它们的运算都有固定的简单规则,并且理论上输入都是不限长度的,那么我们可以通过短序列来训练,然后测试在短序列上的训练结果能否推广到长序列中。也就是说,它可以作为长度外推性的一个很强的测试基准。



实验结果
首先,介绍原始论文《Neural Networks and the Chomsky Hierarchy》的实验结果,它对比了若干 RNN 模型及 Transformer 模型的效果(评测指标是诸位字符串的平均准确率,而不是整体结果的全对率):

▲ 若干模型在若干长度外推测试任务上的效果对比
结果可能会让人意外,“风头正盛”的 Transformer 的长度外推效果是最差的(这里的 Transformer 还测试了不同的位置编码,并在每种任务上取了最优值),最好的是 Tape-RNN。论文给它们的评级如下:
而前面介绍的《Randomized Positional Encodings Boost Length Generalization of Transformers》所提的随机位置训练方法,则为 Transformer 挽回了一些劣势:

▲ 不同位置编码的Transformer在有无随机位置训练下的长度外推效果对比
可以看到,在随机位置训练之下,不管哪种位置编码的 Transformer 都有明显的提升,这就进一步验证了上一篇文章的结论,即长度外推性跟位置编码本身的设计没太大关系。特别地,随机位置训练还在 Bucket Sort 这个任务上首次取得了全对的准确率。尽管在总体表现上依然欠佳,但这相比之前的结果已经算是长足进步了(不知道结合“ 缩放注意力”能否有提升?)。
值得注意的地方还有,上表显示 ALIBI 这个在上一篇文章中表现良好的方法,在这部分任务上并无表现出什么优势,尤其是加入随机位置训练后,它的平均指标比 RoPE 还差,这就初步肯定了前面的猜测,即各种 Local Attention 变体的方法表现良好,大概率是因为基于语言模型的评测任务本身有严重的局域性,对于非局域性的 CHE 基准,这些方法并没有优势。



原理反思

细思之下,“随机位置训练”会很让人困惑。简单起见,我们不妨设 L=2048, N=64, M=512,这样一来,训练阶段所用的平均位置序列大致为 [0, 32, 64, ···, 2016],预测阶段所用的平均位置序列是 [0, 8, 16, ···, 2040],训练阶段和预测阶段的相邻位置差不一样,这也可以说是某种不一致性,但它表现依然良好,这是为什么呢?

我们可以从“序”的角度去理解它。由于训练阶段的位置 id 是随机采样的,那么相邻位置差也是随机的,所以不管是相对位置还是绝对位置,模型不大可能通过精确的位置 id 来获取位置信息,取而代之是一个模糊的位置信号,更准确地说,是通过位置序列的“序”来编码位置而不是通过位置 id 本身来编码位置。

比如,位置序列 [1,3,5] 跟 [2,4,8] 是等价的,因为它们都是从小到大排列的一个序列,随机位置训练“迫使”模型学会了一个等价类,即所有从小到大排列的位置序列都是等价的,都可以相互替换,这是位置鲁棒性的真正含义。

然而,笔者自己在 MLM 上做的实验结果显示,这个“等价类”的学习对模型还是有一定的困难的,更理想的方法是训练阶段依然使用随机位置,使得预测阶段的位置编码也被训练过,但是预测阶段的位置序列前面部分应该跟随机位置的平均结果一致。

还是刚才的例子,如果预测阶段所用的位置序列是 [0, 8, 16, ···, 2040],那么我们希望训练阶段的随机位置平均结果是 [0, 8, 16, ···, 504](即序列 [0, 8, 16, ···, 2040] 的前 N 个),而不是 [0, 32, 64, ···, 2016],这样训练和预测的一致性就更加紧凑了。



延伸推广

于是,笔者考虑了如下思路:

等均值随机位置训练 设 服从一个均值为 、采样空间为 [0,) 的分布,那么训练阶段随机采样一个 ,然后从 中均匀取 个点作为位置序列。

参考代码为:

1def random_position_ids(N):
2    """先随机采样n,然后从[0, n]均匀取N个点
3    """

4    n = sample_from_xxx()
5    return np.linspace(01, N) * n
注意,这样采样出来的位置序列是浮点数,因此不适用于离散的训练式位置编码,只适用于函数式位置编码如 Sinusoidal 或 RoPE,下面假设只考虑函数式位置编码。
该思路的最大问题是如何选择适合的采样分布。笔者的第一反应是泊松分布,但考虑到泊松分布的均值和方差都是 ,那么按照“ 法则”来估算,它只能外推到 长度,这显然太短了。
经过挑选和测试,笔者发现有两个分布比较适合:一个是指数分布,它的均值和标准差都是 ,那么即便按照“ 法则”,也能外推到 的长度,是一个比较理想的范围(实际还更长些)。
另一个是 beta 分布,它定义在 上,我们可以将测试长度作为 ,那么训练长度就是 ,beta 分布有两个参数 ,其中均值为 ,那么确保均值等于 后,我们还有额外的自由度控制 1 附近的概率,适合想要进一步拓展外推范围的场景。
笔者的实验结果显示,“等均值随机位置训练”结合“ 缩放注意力”,在 MLM 任务上,能取得最佳的外推效果(训练长度 64,测试长度 512,采样分布为指数分布)。因为之前没做过 CHE 基准,所以笔者一时之间也没法测试 CHE 基准的效果,只能留到后面有机会再尝试了。



文章小结
本文从位置鲁棒性的角度思考了 Transformer 的长度外推性,得到了“随机位置训练”等增强长度外推性的新方案。同时,我们介绍了新的“CHE 基准”,相比常规的语言模型任务,它具备更强的非局域性,可以更有效地评估长度外推相关工作。在它之下,之前的注意力局部化相关方法并没有较为突出的表现,相比之下“随机位置训练”效果更佳,这提醒我们应当在更全面的任务上评估相关方法的有效性,而不单单局限于语言模型任务。

参考文献

[1] https://openreview.net/forum?id=nMYj4argap

[2] https://arxiv.org/abs/2207.02098


更多阅读



#投 稿 通 道#

 让你的文字被更多人看到 



如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。


总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 


PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。


📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算


📬 投稿通道:

• 投稿邮箱:[email protected] 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿


△长按添加PaperWeekly小编



🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧


·

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
清华朱军团队开源UniDiffuser:首个基于Transformer的多模态扩散大模型!文图互生、改写全拿下!纽约洛克菲勒,圣诞记忆ICLR 2023 | Specformer: 基于Transformer的集合到集合图谱滤波器顶会上的热宠:Transformer强化学习中的Transformer发展到哪一步了?清北联合发布TransformRL综述清华朱军团队开源UniDiffuser:首个基于Transformer的多模态扩散大模型7 Papers & Radios | 谷歌开源机器人领域transformer;DeepMind推出剧本写作AI柏林 ~ 德国没有普鲁士ICLR盲审阶段就被评审赞不绝口的论文:会是Transformer架构的一大创新吗?扩散模型和Transformer梦幻联动!替换U-Net,一举拿下新SOTA!全球首个面向遥感任务设计的亿级视觉Transformer大模型NeurIPS 2022 | 大图上线性复杂度的节点级Transformer扩散模型和Transformer梦幻联动!一举拿下新SOTA,MILA博士:U-Net已死EeSen、FSMN、CLDNN、BERT、Transformer-XL…你都掌握了吗?一文总结语音识别必备经典模型(二)扩散模型和Transformer梦幻联动!一举拿下新SOTA统治扩散模型的U-Net要被取代了,谢赛宁等引入Transformer提出DiTChatGPT鲁棒性分析:对抗鲁棒与分布外泛化视角Transformer如何做扩散模型?伯克利最新《transformer可扩展扩散模型》论文马克谈天下(349) 聊聊苏联经援外交的巨大教训​Transformer升级之路:旋转位置编码的完备性分析7 Papers & Radios | 推理速度比Stable Diffusion快2倍;视觉Transformer统一图像文本王羲之集字对联ICRA 2023 | CurveFormer:基于Transformer的3D车道线检测新网络Meta发布ConvNeXt V2!仅用最简单的卷积架构,性能不输Transformer超越ConvNeXt!Transformer 风格的卷积网络视觉基线模型Conv2Former山情水趣话旅游(33):夏威夷之行(1)谷歌新作!Transformer杀入机器人领域!RT-1:97%成功率,轻松完成700多条控制指令!CF-ViT:用于视觉Transformer的由粗到细的两阶段动态推理架构 | AAAI 2023首次!无残差连接或归一化层,也能成功训练深度TransformerICLR盲审阶段被审稿人赞不绝口的论文:会是Transformer架构的一大创新吗?7 Papers & Radios | 无残差连接训练深度transformer;DeepMind写代码AI登Science封面更快更强!EfficientFormerV2来了!一种新的轻量级视觉Transformer大规模的化学语言 transformer 模型捕捉分子结构和性质
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。