Redian新闻
>
​为什么Pre Norm的效果不如Post Norm?

​为什么Pre Norm的效果不如Post Norm?

科技


©PaperWeekly 原创 · 作者 | 苏剑林
单位 | 追一科技
研究方向 | NLP、神经网络


Pre Norm 与 Post Norm 之间的对比是一个“老生常谈”的话题了,本博客就多次讨论过这个问题,比如文章《浅谈 Transformer 的初始化、参数化与标准化》[1]《模型优化漫谈:BERT 的初始标准差为什么是 0.02?》等。目前比较明确的结论是:同一设置之下,Pre Norm 结构往往更容易训练,但最终效果通常不如 Post Norm。Pre Norm 更容易训练好理解,因为它的恒等路径更突出,但为什么它效果反而没那么好呢?

笔者之前也一直没有好的答案,直到前些时间在知乎上看到 @唐翔昊 的一个回复后才“恍然大悟”,原来这个问题竟然有一个非常直观的理解!本文让我们一起来学习一下。


基础回顾

Pre Norm 和 Post Norm 的式子分别如下:



在 Transformer 中,这里的 主要指 Layer Normalization,但在一般的模型中,它也可以是 Batch Normalization、Instance Normalization 等,相关结论本质上是通用的。

在笔者找到的资料中,显示 Post Norm 优于 Pre Norm 的工作有两篇,一篇是《Understanding the Difficulty of Training Transformers》[2],一篇是《RealFormer: Transformer Likes Residual Attention》[3]。另外,笔者自己也做过对比实验,显示 Post Norm 的结构迁移性能更加好,也就是说在  Pretraining 中,Pre Norm 和 Post Norm 都能做到大致相同的结果,但是 Post Norm 的 Finetune 效果明显更好。

可能读者会反问《On Layer Normalization in the Transformer Architecture》[4] 不是显示 Pre Norm 要好于 Post Norm 吗?这是不是矛盾了?其实这篇文章比较的是在完全相同的训练设置下 Pre Norm 的效果要优于 Post Norm,这只能显示出 Pre Norm 更容易训练,因为 Post Norm 要达到自己的最优效果,不能用跟 Pre Norm 一样的训练配置(比如 Pre Norm 可以不加 Warmup 但 Post Norm 通常要加),所以结论并不矛盾。



直观理解

为什么 Pre Norm 的效果不如 Post Norm?知乎上 @唐翔昊 给出的答案是:Pre Norm 的深度有“水分”!也就是说,一个 层的 Pre Norm 模型,其实际等效层数不如 层的 Post Norm 模型,而层数少了导致效果变差了。

具体怎么理解呢?很简单,对于 Pre Norm 模型我们迭代得到:



其中每一项都是同一量级的,那么有 ,也就是说第 层跟第 层的差别就相当于 的差别,当 较大时,两者的相对差别是很小的,因此



这个意思是说,当 比较大时, 相差较小,所以 很接近,因此原本一个 层的模型与 层和,近似等效于一个更宽的 层模型,所以在 Pre Norm 中多层叠加的结果更多是增加宽度而不是深度,层数越多,这个层就越“虚”。

说白了,Pre Norm 结构无形地增加了模型的宽度而降低了模型的深度,而我们知道深度通常比宽度更重要,所以是无形之中的降低深度导致最终效果变差了。而 Post Norm 刚刚相反,在《浅谈 Transformer 的初始化、参数化与标准化》[1] 中我们就分析过,它每 Norm 一次就削弱一次恒等分支的权重,所以 Post Norm 反而是更突出残差分支的,因此 Post Norm 中的层数更加“足秤”,一旦训练好之后效果更优。



相关工作

前段时间号称能训练 1000 层 Transformer 的 DeepNet 想必不少读者都听说过,在其论文《DeepNet: Scaling Transformers to 1,000 Layers》[5] 中对 Pre Norm 的描述是:

However, the gradients of Pre-LN at bottom layers tend to be larger than at top layers, leading to a degradation in performance compared with Post-LN.


不少读者当时可能并不理解这段话的逻辑关系,但看了前一节内容的解释后,想必会有新的理解。

简单来说,所谓“the gradients of Pre-LN at bottom layers tend to be larger than at top layers”,就是指 Pre Norm 结构会过度倾向于恒等分支(bottom layers),从而使得 Pre Norm 倾向于退化(degradation)为一个“浅而宽”的模型,最终不如同一深度的 Post Norm。这跟前面的直观理解本质上是一致的。


文章小结


本文主要分享了“为什么 Pre Norm 的效果不如 Post Norm”的一个直观理解。


参考文献

[1] https://kexue.fm/archives/8620
[2] https://arxiv.org/abs/2004.08249
[3] https://arxiv.org/abs/2012.11747
[4] https://arxiv.org/abs/2002.04745
[5] https://arxiv.org/abs/2203.00555



更多阅读




#投 稿 通 道#

 让你的文字被更多人看到 



如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。


总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 


PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。


📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算


📬 投稿通道:

• 投稿邮箱:[email protected] 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿


△长按添加PaperWeekly小编




🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧



·

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
【80k 开卡奖励即将过期】Chase Sapphire Preferred (CSP) 信用卡China’s Music Platforms Are Streaming Fake Tracks生俩娃又上班,妈妈还能显年轻气色好?做对这一步,效果不输医美158穿出178的效果,一条裤子让郭采洁全网封神!春天的祈祷室内口罩强制令昨日起取消Dining Out, Parks, Travel: Shanghai’s Post Lockdown Wishlist分步指南:从 Pop OS 21.10 更新到 Pop OS 22.04 LTS | Linux 中国微众银行OSPO建设之路:如何通过OSPO的建设推动企业开源?Chinese Provinces Seek Fertility Treatments to Boost Birth Rate哪些佐剂可增强局麻药的效能?启功拜师齐白石Wheat Destroyed Before Harvest Prompts Food Crisis DiscussionResidents Crowd COVID Test Sites to Move Across Shanghai Freely深信科创完成近亿元PreA、PreA+轮融资,聚焦自动驾驶工业软件|早起看早期芯片制造工艺可到0.2nm?China Restricts Citizens From ‘Non-Essential’ Foreign TravelNew Rules for Schools in Shanghai, Added Pressure for Students​BatchNorm的“平替”?TUM提出KNConvNets,消除CNN中BatchNorm的缺点疫苗的效果如何,日本政府悄悄修改数据The Community Airbnb Fostered Will Be Missed, Hosts Say如何用一块屏幕,玩出双屏的效果?我持枪送外卖!时尚春晚绝美超模火出圈!逆天长腿迷倒全网:P都不敢这么PIs Studying Overseas Losing Its Allure for Chinese Students?A Visionary Principal Fought China’s Education System. He Lost.Shanghai Rental Market Sees ‘Abrupt’ Post-Lockdown Growth发消费券的效果太间接,直接发钱行不行?​超细节的BatchNorm/BN/LayerNorm/LN知识点俄罗斯:爱国,爱被虐, 爱惨胜!Chase Sapphire Preferred (CSP) 信用卡:80k 开卡奖励即将过期!突破百万亿参数规模,追求极致的效率和性价比:华人团队开源首个异构并行推荐系统训练框架PersiaHenan Plans to ‘Recognize’ Locals Preventing Domestic ViolenceHenan Bank Depositors Slam Gov’t Response to Red Health CodeNational Treasure: Under a Village, China Hunts for Lost History
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。