Redian新闻
>
从零手搓MoE大模型,大神级教程来了

从零手搓MoE大模型,大神级教程来了

公众号新闻
克雷西 发自 凹非寺
量子位 | 公众号 QbitAI

传说中GPT-4的“致胜法宝”——MoE(混合专家)架构,自己也能手搓了!

Hugging Face上有一位机器学习大神,分享了如何从头开始建立一套完整的MoE系统。

这个项目被作者叫做MakeMoE,详细讲述了从注意力构建到形成完整MoE模型的过程。

作者介绍,MakeMoE是受到OpenAI创始成员Andrej Karpathy的makemore启发并以之为基础编写的。

makemore是一个针对自然语言处理和机器学习的教学项目,意在帮助学习者理解并实现一些基本模型。

同样,MakeMoE也是在一步步的搭建过程中,帮助学习者更深刻地理解混合专家模型。

那么,这份“手搓攻略”具体都讲了些什么呢?

从头开始搭建MoE模型

和Karpathy的makemore相比,MakeMoE用稀疏的专家混合体代替了孤立的前馈神经网络,同时加入了必要的门控逻辑。

同时,由于过程中需要用到ReLU激活函数,makemore中的默认初始化方式被替换成了Kaiming He方法。

想要创建一个MoE模型,首先要理解自注意力机制。

模型首先通过线性变换,将输入序列变换成用查询(Q)、键(K)和值(V)表示的参数。

这些参数随后被用于计算注意力分数,这些分数决定了在生成每个token时,模型对序列中每个位置的关注程度。

为了确保模型在生成文本时的自回归特性,即只能基于已经生成的token来预测下一个token,作者使用了多头因果自注意力机制。

这种机制通过一个掩码来实现将未处理的位置的注意力分数设置为负无穷大,这样这些位置的权重就会变为零。

多头因果则是让模型并行地执行多个这样的注意力计算,每个头关注序列的不同部分。

完成自注意力机制的配置后,就可以创建专家模块了,这里的“专家模块”是一种多层感知器。

每个专家模块包含一个线性层,它将嵌入向量映射到一个更大的维度,然后通过非线性激活函数(如ReLU),再通过另一个线性层将向量映射回原始的嵌入维度。

这样的设计使得每个专家能够专注于处理输入序列的不同部分,并通过门控网络来决定在生成每个token时应该激活哪些专家。

于是,接下来就要开始构建分配和管理专家的组件——门控网络。

这里的门控网络同样是通过一个线性层实现,该层将自注意力层的输出映射到专家模块的数量。

这个线性层的输出是一个分数向量,每个分数代表了对应专家模块对于当前处理的token的重要性。

门控网络会计算这个分数向量的top-k值并记录其索引,然后从中选择top-k个最大的分数,用来加权对应的专家模块输出。

为了在训练过程中增加模型的探索性,作者还引入了噪声,避免所有token都倾向于被相同的专家处理。

这种噪声通常通过在分数向量上添加随机的高斯噪声实现。

获得结果后,模型有选择地将前k个值与相应token的前k个专家的输出相乘,然后相加形成加权和,构成模型的输出。

最后,将这些模块在一起,就得到一个MoE模型了。

针对以上的整个过程,作者都提供了相应的代码,可以到原文中具体了解。

另外,作者还制作了端到端的Jupyter笔记,可以在学习各模块的同时直接运行。

感兴趣的话,就赶快学起来吧!

原文地址:
https://huggingface.co/blog/AviSoori1x/makemoe-from-scratch
笔记版本(GitHub):
https://github.com/AviSoori1x/makeMoE/tree/main

—  —

点这里👇关注我,记得标星哦~

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见 ~ 

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
混合专家系统里根本没专家?开源MoE模型论文引网友热议AI早知道|ChatGPT模型大更新;阿里云发布多模态大模型;百度推多模态模型UNIMO-G不是大模型全局微调不起,只是LoRA更有性价比,教程已经准备好了360安全大模型3.0来了!垂直大模型,他们这么训GPT Store发布后续:你们要的搞钱教程来了!MoE与Mamba强强联合,将状态空间模型扩展到数百亿参数天工2.0 MoE大模型发布;苹果开源自动修图神器MGIE;香港公司被AI换脸骗走2亿港元丨AIGC大事日报AI早知道|马斯克Grok大模型开源;荣耀正式发布首款AI PC;苹果谷歌和OpenAI商谈iPhone大模型使用陈丹琦团队新作:数据量砍95%,大模型性能更强了!Less is More开源大模型火了!(附99个大模型微调模型/数据/工具)!北大等提出MoE-LLaVA:将多模态大模型稀疏化徐英才新作《中国三行诗理论与技巧》前言女儿泪幻方量化开源国内首个MoE大模型,全新架构、免费商用Trader Joe's第15届年度最受顾客欢迎的产品出炉啦!下次逛Trader Joe’s就去试试看吧中文版Grasshopper教程终于来了!让新手小白也能成为参数化大神!马斯克打脸OpenAI,全球最大巨无霸模型Grok-1开源!3140亿参数8个MoE,GitHub狂揽6k星打破MoE训练效率与性能瓶颈,华为盘古稀疏大模型全新架构LocMoE出炉首个国产开源MoE大模型来了!性能媲美Llama 2-7B,计算量降低60%AI图片制作微信红包封面老保姆级教程对标OpenAI GPT-4,MiniMax 国内首个 MoE 大语言模型全量上线打通大模型训练任督二脉!国内首个千亿参数、全面开源大模型来了,还联手开发者共训AI早知道|Stability AI推出最小模型;国内首个视频大模型通过备案;内蒙古首个AI大模型工业互联网平台发布北京内推 | 微软亚洲研究院WWE大模型团队招聘大模型研究实习生回国的尴尬(一)AI早知道|百度推出视频生成模型UniVG;Soul APP上线自研语言大模型;清华大学首个大模型 Debug将多模态大模型稀疏化,3B模型MoE-LLaVA媲美LLaVA-1.5-7B混合专家模型 (MoE) 详解如何创建一个GPT上架赚钱?教程来了!对标 OpenAI GPT-4,MiniMax 国内首个 MoE 大语言模型全量上线手把手教你,从零开始实现一个稀疏混合专家架构语言模型(MoE)《中国爱与梦》&《骨刺》今天终于解开了一个迷千元成本搞定专业大模型,系统优化+开源大模型是关键 | 潞晨卞正达@MEET2024本地缓存之王,Caffeine 保姆级教程
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。