Redian新闻
>
比Transformer快4成!Meta发布全新Megabyte模型,解决算力损耗硬伤

比Transformer快4成!Meta发布全新Megabyte模型,解决算力损耗硬伤

公众号新闻



  新智元报道  

编辑:Joey
【新智元导读】Transformer最近几年已然成为大模型的标配,而Meta团队开发的一款Megabyte模型声称能解决Transformer的硬伤,速度还要快四成。


Transformer无疑是过去几年内机器学习领域最流行的模型。


自2017年在论文「Attention is All You Need」中提出之后,这个新的网络结构,刷爆了各大翻译任务,同时创造了多项新的记录。



但Transformer在处理长字节序列时有个硬伤,就是算力损耗严重,而Meta的研究人员的最新成果则可以很好地解决这一缺陷。


他们推出了一种全新的模型架构,能跨多种格式生成超过100万个token,并超越GPT-4等模型背后的现有 Transformer架构的功能。


这个模型被称为「兆字节」(Megabyte),是一种多尺度解码器架构(Multi-scale Decoder Architecture),可以对超过一百万字节的序列进行端到端可微分建模。


论文链接:https://arxiv.org/abs/2305.07185


Megabyte为什么比Transformer强,就得先看看Transformer的不足之处在哪。


Transformer的不足


迄今为止几类高性能的生成式AI模型,如OpenAI的GPT-4、Google的Bard,都是基于Transformer架构的模型。



但Meta的研究团队认为,流行的Transformer架构可能正达到其阈值,其中主要理由是Transformer设计中固有的两个重要缺陷:


- 随着输入和输出字节长度的增加,自注意力的成本也迅速增加,如输入的音乐、图像或视频文件通常包含数兆字节,然而大型解码器 (LLM)通常只使用几千个上下文标记


- 前馈网络通过一系列数学运算和转换帮助语言模型理解和处理单词,但在每个位置的基础上难以实现可扩展性,这些网络独立地对字符组或位置进行操作,从而导致大量的计算开销


Megabyte强在哪


相比Transformer,Megabyte模型展示了一种独特的不同架构,将输入和输出序列划分为patch而不是单个token。


如下图,在每个patch中,本地AI模型生成结果,而全局模型管理和协调所有patch的最终输出。



首先,字节序列被分割成固定大小的patch,大致类似于token,这个模型由三部分组成:

(1) patch嵌入器:通过无损地连接每个字节的嵌入来简单地编码patch

(2) 一个全局模型:一个输入和输出patch表示的大型自回归变换器

(3) 一个本地模型:一个预测patch中字节的小型自回归模型

研究人员观察到,对于多数任务而言字节预测都相对容易(如完成给定前几个字符的单词),这意味着每个字节的大型网络是不必要的,并且可以使用更小的模型进行内部预测。


这种方法解决了当今AI模型中普遍存在的可扩展性挑战,Megabyte 模型的patch系统允许单个前馈网络在包含多个token的patch上运行,从而有效解决了自注意力缩放问题。


其中,Megabyte架构对长序列建模的Transformer进行了三项主要改进:


- 二次自注意力(Sub-quadratic self-attention)

大多数关于长序列模型的工作都集中在减轻自注意力的二次成本上,而Megabyte将长序列分解为两个较短的序列,即使对于长序列也仍然易于处理。


- patch前馈层(Per-patch feedforward layers)

在GPT-3大小的模型中,超过98%的FLOPS用于计算位置前馈层,Megabyte每个patch使用大型前馈层,以相同的成本实现更大、性能更强的模型。在patch大小为P的情况下,基线转换器将使用具有m个参数的相同前馈层P次,兆字节可以以相同的成本使用具有mP个参数的层一次。


- 解码中的并行性(Parallelism in Decoding)

Transformers必须在生成期间串行执行所有计算,因为每个时间步的输入是前一个时间步的输出,通过并行生成patch的表示,Megabyte允许在生成过程中实现更大的并行性。


例如,具有1.5B参数的Megabyte模型生成序列的速度比标准的350MTransformer快40%,同时在使用相同的计算量进行训练时还能改善困惑度。



Megabyte远远优于其他模型,并提供与在子词上训练的 sota 模型竞争的结果

相比之下,OpenAI 的GPT-4有32,000个token的限制,而Anthropic的Claude有100,000个token的限制。


此外,在运算效率方面,在固定模型大小和序列长度范围内,Megabyte比同等大小的Transformers和Linear Transformers使用更少的token,允许以相同的计算成本使用更大的模型。



总之,这些改进使我们能够在相同的计算预算下训练更大、性能更好的模型,扩展到非常长的序列,并提高部署期间的生成速度。


未来将会如何


随着AI军备竞赛进行地如火如荼,模型性能越来越强,参数也越来越高。


虽然GPT-3.5在175B个参数上进行了训练,但有人猜测功能更强大的GPT-4在1万亿个参数上进行了训练。


OpenAI的CEO Sam Altman最近也建议转变战略,他表示公司正在考虑舍弃对庞大模型的训练,而专注于其他性能的优化。


他将AI模型的未来等同于iPhone芯片,而大多数消费者对原始技术规格一无所知。


Meta的研究人员相信他们的创新架构来得正是时候,但也承认还有其他优化途径。


例如采用修补技术的更高效的编码器模型、将序列分解为更小块的解码模型以及将序列预处理为压缩token等,并且可以扩展现有Transformer架构的能力以构建新一代模型。


前特斯拉AI总监Andrej Karpathy也在这篇论文中发表了看法,他在推特上写道:


这是非常有希望的,每个人都应该希望我们能在大模型中扔掉标记化,也不需要那些过长字节的序列。


参考资料:
https://www.artisana.ai/articles/meta-ai-unleashes-megabyte-a-revolutionary-scalable-model-architecture



微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
忆阻器大突破,迄今密度最高, 有望彻底解决算力焦虑问题GPT-4参数最新爆料!1.76万亿参数,8个2200亿MoE模型,PyTorch创始人深信不疑【吃顆米大會(つっこみたいかい)】暖場《いつの 日ひ 君きみ 帰かえ る》ChatGPT危了!「注意力公式」8年神秘bug首曝光,Transformer模型恐大受冲击Transformer取代者登场!微软、清华刚推出RetNet:成本低、速度快、性能强ICLR 2023 | DIFFormer: 扩散过程启发的Transformer清华大学提出LiVT,用视觉Transformer学习长尾数据,解决不平衡标注数据不在话下在Transformer时代重塑RNN,RWKV将非Transformer架构扩展到数百亿参数无自注意力照样高效!RIFormer开启无需token mixer的Transformer结构新篇章专访生数科技唐家渝:清华系团队拿到近亿融资,用Transformer来做多模态大模型斯坦福博士一己之力让Attention提速9倍!FlashAttention燃爆显存,Transformer上下文长度史诗级提升专访生数科技唐家渝:清华系团队拿到上亿融资,用Transformer来做多模态大模型号称业界最强!Meta发布全新文生图模型,实力碾压Stable Diffusion、Midjourney《满城烟花》&《沏春》基于Transformer的大模型是如何运行的?Meta从全局和上下文学习揭秘让Attention提速9倍!FlashAttention燃爆显存,Transformer上下文长度史诗级提升解码器 | 基于 Transformers 的编码器-解码器模型解决算力供需不均衡问题,专家呼吁建立全国算力“一张网”华为将推盘古数字人大模型;搜狗原CMO加盟王小川公司;首个线性注意力Transformer大模型推出丨AIGC大事日报ICLR 2023 | Edgeformers: 基于Transformer架构的表征学习框架Transformer后继有模!MSRA提出全新大模型基础架构:推理速度8倍提升,内存占用减少70%看急诊经历及收费揭秘Transformer基于上下文学习的能力:看它如何学到正确的线性模型?秋天的故事Transformer全新里程碑!诞生6年,开山之作被引近8万,没夺下NeurIPS最佳论文,却彻底改变AI界5分钟端侧部署视觉大模型!专为Transformer优化的AI芯片来了编码器-解码器 | 基于 Transformers 的编码器-解码器模型《我的父亲是流亡学生》: 19. 一场大火12种模态,一个学习框架,Meta-Transformer实现骨干网络大一统transformer的细节到底是怎么样的?Transformer 连环18问!ChatGPT危了!注意力机制的神秘bug曝光!Transformer模型恐大受冲击...大模型的好伙伴,浅析推理加速引擎FasterTransformer炸裂!微软新作LongNet:将Transformer扩展到10亿个Tokens彻底解决ChatGPT健忘症!突破Transformer输入限制:实测支持200万个有效token最新NaViT模型炸场!适用任何长宽比+分辨率,性能能打的Transformer
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。