Redian新闻
>
斯坦福博士提出超快省显存Attention,GPT-2训练速度提升3.5倍,BERT速度创纪录

斯坦福博士提出超快省显存Attention,GPT-2训练速度提升3.5倍,BERT速度创纪录

科技
白交 发自 凹非寺
量子位 | 公众号 QbitAI

Flash is all you need!

最近,一个超快且省内存的注意力算法FlashAttention火了。

通过感知显存读取/写入,FlashAttention的运行速度比PyTorch标准Attention快了2-4倍,所需内存也仅是其5%-20%。

而它的表现还不止于此。

  • 训练BERT速度相较于MLPerf训练记录提升15%;

  • 训练GPT-2的速度提高3.5倍;

  • 训练Transformer的速度比现有基线快。

网友们纷纷表示惊叹:Great Job!这项工作对我来说很有用。

来看看这是一项什么样的研究~

FlashAttention

本文提出了一种IO感知精确注意力算法。

随着Transformer变得越来越大、越来越深,但它在长序列上仍然处理的很慢、且耗费内存。(自注意力时间和显存复杂度与序列长度成二次方)

现有近似注意力方法,在试图通过去牺牲模型质量,以降低计算复杂度来解决该问题。

但存在一定的局限性,即不能提升运行时的训练速度。

研究者认为,应该让注意力算法具有IO感知,即考虑显存级间的读写,比如大但慢的HBM(High Bandwidth Memory)技术与小但快的SRAM。

基于这样的背景,研究人员提出了FlashAttention,具体有两种加速技术:按块递增计算即平铺、并在后向传递中重新计算注意力,将所有注意力操作融合到CUDA内核中。

FlashAttention使用平铺来防止大的𝑁×𝑁注意力矩阵(虚线框)在GPU HBM上物化(materialization)。在外部循环中(红色箭头),FlashAttention循环通过K和V矩阵的块,并将其加载到SRAM。

在每个区块中,FlashAttention 循环Q矩阵的区块(蓝色箭头)将其加载到 SRAM,并将注意力计算的输出写回 HBM。

这样就产生了一种注意力算法,在实际耗时(wall-clock time)内,其内存效率和速度都很高,相比于标准的注意力算法可以更少地访问HBM。

结果比现有注意力算法都快

研究人员评估了FlashAttention来训练Transformer的影响,包括训练时间、模型准确性,以及注意力运行时间和内存效率。

首先在训练速度上。FlashAttention比MLPerf 1.1的BERT速度记录高出15%。

在实现GPT-2上,比HuggingFace速度高出3倍,比Megatron的标准Transformer速度高出1.8倍,FlashAttention将LRA(long-range arena)的基准速度提高了2.4倍。

模型质量,FlashAttention将Transformer扩展到更长的序列,并且质量更好。

长上下文的语言建模

如图所示,使用FlashAttention可以让GPT-2上下文长度增加4倍的情况下,训练时间还比Megatron-LM优化实现快30%,同时也获得了0.7的困惑度(困惑度越低,说明语言模型越好)

长文档分类

对较长序列的Transformer训练可以提高MIMIC-III和ECtHR数据集的性能,比如序列长度为16K在MIMIC上比长度512多出4.3分。

MIMIC-III:包含重症监护室病人的出院总结,每个都有多个标签注释;ECtHR:包含欧洲人权法案的法律案件;两个数据集都包含很长的文本文件。

此外,还完成了第一个能在Path-X和Path-256任务中实现非随机性能的Transformer模型。

之后,研究人员还完成了基准测试,测量FlashAttention和块状稀疏(Block-Sparse)FlashAttention的运行时间和内存性能,并与带有40GB HBM的A100 GPU上的各种注意力基线进行了比较。

结果显示,FlashAttention的运行时间,比PyTorch注意力实现快3倍;在短序列情况下,FlashAttention在短序列中仍比近似和稀疏注意力运行得快;至于块状稀疏的FlashAttention,在所有的序列长度上都比现有注意力实现都快。

至于在显存效率方面,FlashAttention比PyTorch注意力基线高20倍

在64k序列长度、其他所有算法都已经耗尽显存的情况下,FlashAttention的效率仍比Linformer高2倍

斯坦福博士一作

这篇研究来自斯坦福大学计算机系以及纽约州立大学布法罗分校。共同一作是两位斯坦福计算机博士生Tri DaoDan Fu

感兴趣的朋友,可戳下方论文链接了解更多~

论文链接:
https://arxiv.org/abs/2205.14135

GitHub链接:
https://github.com/HazyResearch/flash-attention

参考链接:
https://twitter.com/tri_dao/status/1531437619791290369

—  —

直播报名 | 自动驾驶的量产之路:

为什么“渐进式”路径先看到了无人驾驶量产的曙光?

自动驾驶领域一直以来就有“渐进式”和“跨越式”两种路径之争,前者以特斯拉为代表,后者以Waymo为领头羊。

特斯拉宣布2024年实现新型“Robotaxi”的量产,而另一边是Waymo CEO离职,商业化落地裹足不前。在此背后,为什么“渐进式”路径被越来越多的机构看好?“渐进式”技术发展路径是什么?自动驾驶量产离我们的生活还有多远?


点这里👇关注我,记得标星哦~

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见~




微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
上海什么时候可以“开封”? 等中央宣布了Chinese Provinces Seek Fertility Treatments to Boost Birth Rate德国团队做了一款水晶电池:能量密度提高一倍,原材料成本还降低 1/3阅读防守,提升30%上篮效率Battered Chinese Crypto Fans Still Plan to BuyAAAI 2022 | 车辆重识别全新方向!解决恶劣天气下的车辆重识别!有效提升真实世界可行性!训练代码以及预训练模型皆以开源!Shanghai’s ‘Psychological Emergency’ Warrants AttentionShanghai Certifies Regional Headquarters of 40 Global Firms反向关税战,印度提升钢铁产品50%出口关税江南之歌才下眉头,却上心头可怕: 加国枪击案过去11年猛升37%,明日提出新的枪械管制措施斯坦福博士给娃上的思维课,我想偷偷分享给你们都听听百度提出动态自蒸馏方法,结合交互模型与双塔模型实现稠密段落检索Learning Device Accused of Offering ‘Inappropriate’ ContentHiring | Real Estate Senior Accountant / Accounting ManagerCambridge,Arlington,Belmont学区敦促学生戴口罩Shanghai’s Musical Theater Scene Sputters Back to Life北美求职指北-E周报:马斯克440亿买下推特,成科技史收购大案;广告收入放缓,谷歌母公司一季度创两年最低营收增速(4月第5周)恭喜【曼大】学员斩获Deloitte Internship Offer!CMU专家团队创业,OtterTune让数据库插上AI的翅膀With Bittersweet Memories, Students Leave Shanghai in DrovesOffer到!往届录取均分3.5+,GPA 3.1,Gap两回,如何「破纪录」拿下纽大咨询硕士?SIGIR 2022 | 港大等提出超图对比学习在推荐系统中的应用旅游中的吃—2维C是梨的5倍,苹果的7倍!最应季的时令菜,错过就要等一年重振PointNet++雄风!PointNeXt:通过改进的模型训练和缩放策略重新审视PointNet++精品投行Centerview Partners已开放 金融 2022 Internship!痛心!斯坦福博士突然离世!我想起了那个去世的康奈尔大二女生....芝加哥的火车How China Can Better Protect Its Juvenile Offenders西雅图周末不无聊|带着你心爱的人,一起去Tacoma Water Lantern Festival放水灯叭!被骂上热搜3次,今天必须给Ta平反!蛋白质是牛奶的5倍,不给娃吃亏大了无形经济与制度创新AmEx 白金卡 $240 Digital Entertainment Credit 选项:Hulu可以选HBO Add-on
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。