今天,AI圈被一个惊天「翻车」刷屏了。谷歌大脑的NLP奠基之作、提出Transformer架构的开山鼻祖级论文 《Attention Is All Your Need》 中的图,被网友扒出与代码并不一致。论文地址:https://arxiv.org/abs/1706.03762自2017年问世以来,Transformer已经成为AI领域的基石王者。就连大红大紫的ChatGPT真正的幕后大佬也是它。2019年,谷歌还专门为它申请了专利。归宗溯源,现在各类层出不穷的GPT(Generative Pre-trained Transformer),都起源于这篇17年的论文。据Google Scholar,截止目前,这篇奠基之作已有7万多次的引用。所以,ChatGPT的奠基石都不稳了?
作为「开山鼻祖」的论文,结构图竟是错的?
Lightning AI创始人、机器学习研究者Sebastian Raschka发现,这篇论文中Transformer的图是错误的。图中被圈出的地方,LayerNorms是在注意力和全连接层之后。在残差块之间放置层归一化,会导致输出层附近参数的预期梯度很大。而且,这也与代码不一致。代码地址:https://github.com/tensorflow/tensor2tensor/commit/f5c9b17e617ea9179b7d84d36b1e8162cb369f25#diff-76e2b94ef16871bdbf46bf04dfe7f1477bafb884748f08197c9cf1b10a4dd78e不过有网友指出,Noam shazeer在几周后对代码进行了纠正。随后,Sebastian称,在论文Layer Normalization in the Transformer Architecture中,Pre-LN表现得更好,可以解决梯度问题。这是很多或者大多数架构在实践中所采用的,但它可能导致表征崩溃。如果层归一化在注意力和全连接层之前被放置在残差连接之中,就会实现更好的梯度。Sebastian提出,虽然关于使用Post-LN或Pre-LN的讨论仍在进行中,但也有一篇新论文提议把二者结合起来。论文地址:https://arxiv.org/abs/2304.14802在这种双残差Tranformer中,表征崩溃和梯度消失的问题都得到了解决。