Redian新闻
>
Attention机制竟有bug?Softmax是罪魁祸首,影响所有Transformer

Attention机制竟有bug?Softmax是罪魁祸首,影响所有Transformer

公众号新闻


©作者 | 机器之心编辑部
来源 | 机器之心

「大模型开发者,你们错了。」


「我发现注意力公式里有个 bug,八年了都没有人发现。所有 Transformer 模型包括 GPT、LLaMA 都受到了影响。」


昨天,一位名叫 Evan Miller 的统计工程师的话在 AI 领域掀起了轩然大波。



我们知道,机器学习中注意力公式是这样的:



自 2017 年 Transformer 问世,这个公式已被广泛使用,但现在,Evan Miller 发现这个公式是错的,有 bug!


Evan Miller 的这篇博客解释了当前流行的 AI 模型如何在关键位置出现错误,并使得所有 Transformer 模型都难以压缩和部署。


总结而言,Evan Miller 引入了一种新函数 Quiet Attention,也叫 Softmax_1,这是对传统 softmax 函数的创新调整。



有网友对该博客总结出了一个「太长不看版」。博客作者建议在注意力机制使用的 softmax 公式分母上加 1(不是最终输出 softmax)。注意力单元中的 softmax 使其可以将键 / 查询匹配作为概率;这些概率支持一个键 - 值查找的连续值版本(我们得到的权重不是一个查找的 1/0 输出,而是高权重 = 所需的键 - 值查找)。


分母上加 1 将改变注意力单元,不再使用真实的权重概率向量,而是使用加起来小于 1 的权重。其动机是该网络可以学习提供高权重,这样调整后的 softmax 非常接近概率向量。同时有一个新的选项来提供 all-low 权重(它们提供 all-low 输出权重),这意味着它可以选择不对任何事情具有高置信度。



有人甚至猜测「这就是微软 RetNet 比 transformer 性能更优的原因?」



还有网友表示,这项研究可以促进 LLM 的改进,从而极大对权重进行压缩,使得较小的模型媲美较大的模型:



Miller 表示:你可以像使用传统的 softmax 函数一样使用 Softmax_1 函数,示例如下。


import torchfrom softmax_one.softmax_one import softmax_onex = torch.randn(5)y = softmax_one(x, dim=0)


基于这样的修改,Miller 还做了实验,结果如下:



接下来我们看看 Miller 到底发现了什么错误。




异常值

Evan Miller 是在阅读关于量化的论文时发现了这个 bug。当前,内存和存储已经成为限制人工智能发展的重要因素。人们一直在努力压缩模型,并尝试在云端、在边缘设备上运行大型语言模型(LLM)。


在计算机中,信息是用二进制数据流来存储的。如果数据流是高度可预测的,例如总是包含在有限的范围内,那么我们就可以用相对较少的位(bit)来存储它们。反之,如果一串数字是不可预测的,可能是千载难逢的巨大数字,我们就需要更多的二进制数字来编码和存储。而 Transformer 模型包含一些异常值权重。


在高通 AI Research 6 月发表的一篇论文《Quantizable Transformers: Removing Outliers by Helping Attention Heads Do Nothing》中,研究团队将这些异常值的存在追溯到注意力机制的 softmax 函数。


论文链接:

https://arxiv.org/abs/2306.12929


这听起来令人意外,但 Evan Miller 认为这是对的,并进一步发现 softmax 函数存在一个错误。


我们来看下 Evan Miller 是如何说明 softmax 函数在注意力机制方面并不是一个合适的工具的。




Softmax引出的问题


为什么说 softmax 不适合注意力机制,这还得从注意力机制可以做什么开始。


一般来讲,数值错误一般是由程序错误引起的,然而,当程序没有错误,这时就需要从修复复杂的数学公式入手,耗费大量时间。


Evan Miller 大概阅读了 50 篇 arXiV 论文才有点眉目。Miller 从「输入嵌入」入手,我们可以将「输入嵌入」理解为一个浮点向量,代表输入字符串中的一个单词。


举例来说,Meta 最近推出的 LLaMA 2 模型使用了一个长度为 3204 的嵌入向量,以半精度浮点数表示,这仅仅是为了表示词汇表中的一个单词,而词汇表通常包含 30000 到 50000 个条目(entry)。意味着一个单词的嵌入向量占用 6KB + 的存储空间。随着技术的发展,「输入嵌入」的长度逐渐增加,所占存储空间也随之增加。


如果你是一个对存储占用非常敏感的 C 程序员,你可能接受不了这一数字,明明是 2 字节就能存储的东西,为什么偏偏要用 6KB?如果按照 2 字节来计算,假如词汇量少于 2^16=65384,那么我们只需要 16 位来表示一个条目。


但是,实际上 Transformer 的工作原理是这样的:它将输入向量转换为大小相同的输出向量,最终的 6KB 输出向量用来预测下一个 token。运行中,Transformer 每一层的工作流都将信息添加到原始的单词向量中。在这其中,还用到了残差连接:所有的注意力机制都在为原始的两个字节的信息添加补充材料,从而是的 LLM 能够分析更长的上下文。


Transformer 的最后一步是将这个输出向量与一个矩形矩阵相乘,并将得到的词汇长度向量压缩到一个 softmax 函数中,将这些指数化的输出视为下一个 token 的概率。这是合理的,但众所周知,这并不完全正确,因为我们不能确定这些输出概率是正确的。相反,每个 Transformer 实现和其衍生版本都使用采样机制来隐藏 softmax 过度表示概率较低的事实。


接下里,Miller 介绍了 softmax 的发展史。softmax 最初出现在统计学中,最早作为一种基于能级预测状态分布的方法,其形式如下:



之后经济学家又将其修改为



这一修改,softmax 才拥有了多项逻辑函数。由于 Miller 对 softmax 函数的研究颇深,因而,他能识别出 softmax 使用不恰当的地方。


Softmax 应用广泛,在物理学中,它非常有效;在经济学中,它可能不那么准确;但将其应用到机器学习领域时,只要涉及离散选择,它似乎总是有效的:



Miller 进一步表示,softmax 的关键在于,如果你不想保留一些项,必须对 softmax 进行修改,否则结果就会产生扭曲。


举例来说,在 LLM 上下文中,扭曲产生的原因是对非语义 token(逗号等)进行大量加权导致的,这些较高的权重成为难以压缩的异常值,使得研究变得更加困难。来自高通的 AI 研究员也发现了这一现象,在 LLM 中,97% 以上的异常激活发生在空格和标点符号位置上。


接下来,Miller 介绍了 softmax 是如何在注意力中使用的,从而发现问题到底出现在哪里:



对上述公式进行分解,在仅解码器模型中,𝑄、𝐾和𝑉源自相同的输入序列。它们又不完全相同,即投影方式不同。但在每一层中,它们都以相同的注释嵌入向量开始。


𝑄𝐾^𝑇项用于寻找不同位置 token 向量之间的相关性,实质上构建了一个相关性矩阵(点积按缩放),其中每一列和每一行对应一个 token 位置。然后,对这个方阵的每一行进行 softmax 操作,得到的概率用作𝑉矩阵中值向量的混合函数。概率混合后的𝑉与输入向量相加,将求和结果传递给神经网络进行进一步处理。


多头注意力每层并行执行多次上述过程。从本质上讲,这种方法划分了嵌入向量,每个头使用整个向量中的信息来注释输出向量的一个(非重叠)片段。这就是原始 Transformer 论文中的串联操作。


使用 softmax 的问题在于,它强制每个注意力头进行注释,即使没有信息可添加到输出向量中。




Softmax_1和QuietAttention


来了,在这里你将看到 Softmax Super-Mod 点燃了 LLM 黑客频道。


有点失望,对吧?Miller 所做的只是在分母上加 1。如果想要的话,这可以让该向量作为一个趋于 0 的整体。否则只会将值缩小一点,并且缩小的值会在归一化过程中得到补偿,这在注意力之后发生。



当 𝑥 中的条目显著小于零并且模型试图完全避免注释时,主要的区别在于负值限制。将如下原始 softmax 的限制行为



与新的、改进后的 softmax_1 相比较。



Vanilla softmax 将始终释出相同的总权重;softmax_1 看起来大部分相同,但在负象限中有一个「逃出口」(escape hatch)。需要明确的是,这里的核心问题在本质上是数学而非数值问题。额外的精度并不能拯救 softmax,所有的 Transformers 都会受到影响。


你还可以观察到关于 softmax_1 的其他一些事项。导数是正的,所以总是有一个非零梯度,并且它的和介于 0 和 1 之间,所以输出不会失控。该函数保持以下属性



即输出向量中的相对值不变。


最开始 Miller 打算将这个函数称为 ghostmax,这是因为你可以认为中有一个额外的零值条目,并且 V 矩阵中有一个能够衰减结果的零向量。


尽管 softmax_1 表面上看起来很无聊,但 Miller 99.44% 确信它将解决异常值反馈循环,使量化成为级联研究的主题。Miller 表示,如果你想进行一些实验来证明他是对的,可以联系他。他将撰写一篇论文。


改进后的机制可以被称为 QuietAttention,它允许注意力头保持「沉默」。



Miller 认为很快可以整合一项测试:如果你在每个输入上下文的前面加上一个零向量,并确保你选择的神经网络不添加任何偏差(包括位置编码),那么零在通过时不会改变,并对每个后续的 softmax 分母添加 unity 产生影响。这样你不会因为处理梯度代码失去理智。Miller 认为这可以通过使用固定嵌入和特殊前缀 token 的 LLaMA 模型来完成。


你仍然需要重新训练模型,因此暂时不要在树莓派(RPi)上尝试此操作。但 Miller 想知道这些权重峰度和激活无穷范数在运行几次后是什么样子的。他认为这会成为有影响力的研究,无论是高通 AI Research 团队的论文,还是 LLM 黑客频道有人计算出 biblatex,但自己最先发现的。


项目地址:
https://github.com/kyegomez/AttentionIsOFFByOne

博客链接:

https://www.evanmiller.org/attention-is-off-by-one.html?continueFlag=5d0e431f4edf1d8cccea47871e82fbc4

更多阅读



#投 稿 通 道#

 让你的文字被更多人看到 



如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。


总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 


PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。


📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算


📬 投稿通道:

• 投稿邮箱:[email protected] 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿


△长按添加PaperWeekly小编



🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧


·
·
·

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
让Attention提速9倍!FlashAttention燃爆显存,Transformer上下文长度史诗级提升应届生逆向对抗高昂房价,tiktok竟然是罪魁祸首!Transformer作者创立,Hinton、李飞飞青睐,明星创企Cohere推出打工人专用知识助手ICCV 2023 | 通向3D感知大模型的必由之路!UniTR:统一多模态Transformer Encoder!无自注意力照样高效!RIFormer开启无需token mixer的Transformer结构新篇章解构具有永恒魅力的经典沙拉——华尔道夫沙拉【图文视频】斯坦福博士一己之力让Attention提速9倍!FlashAttention燃爆显存,Transformer上下文长度史诗级提升ICCV 2023 | token过度聚焦暴露注意力机制弱点,两种模块设计增强视觉Transformer鲁棒性华州油价比全国平均水平高出1.19美元!高温是罪魁祸首吗?专家给出原因,趋势不容乐观bug怎样算修完?浅谈团队分布式bug管理 —— git-poison简单易用的bug管理工具transformer的细节到底是怎么样的?Transformer 连环18问!ChatGPT危了!「注意力公式」8年神秘bug首曝光,Transformer模型恐大受冲击重磅 ◇ 温哥华房价全球最难负担!专家称:新移民不是罪魁祸首...nǚ hóng?nǚ gōngICCV 2023 | 新注意力!清华黄高团队提出FLatten Transformer视觉新主干揭秘!澳洲物价飙涨的罪魁祸首,恨死Coles、WWS了Transformer论文「重磅更新」!八子全部离职,谷歌删除Attention Is All You Need所有作者邮箱5.29.23 月光照在河面上能胜任统计学家?Transformers超强学习机制「自动算法选择」比Transformer快4成!Meta发布全新Megabyte模型,解决算力损耗硬伤每个人大概都有过歧视、被歧视的经历田渊栋新作:打开1层Transformer黑盒,注意力机制没那么神秘Eden Might Have Magnolia北大教授李玲:医疗腐败泛滥,谁是罪魁祸首?ChatGPT危了!注意力机制的神秘bug曝光!Transformer模型恐大受冲击...不期然又遇见当年的自己-:)华裔少女被外国男友勒死, 凶手与腐尸同住2个月! 警察骚操作竟是罪魁祸首?云原生 AI 工程化实践:FasterTransformer 加速 LLM 推理炸裂!微软新作LongNet:将Transformer扩展到10亿个Tokens别再投资大温公寓了!分析师给出警告!这两个因素是罪魁祸首!Attention机制竟有bug,Softmax是罪魁祸首,影响所有Transformer让注意力提速9倍!FlashAttention燃爆显存,Transformer上下文长度史诗级提升!8年了,Transformer注意力机制一直有Bug?【社会】婴幼儿大麻中毒频频发生,合法化是罪魁祸首井川里予穿透视装被骂,原来前男友是罪魁祸首!
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。