Redian新闻
>
国内首个开源千亿参数MoE大模型来了!性能超Grok-1,单张GPU可跑

国内首个开源千亿参数MoE大模型来了!性能超Grok-1,单张GPU可跑

科技

APUS-xDAN-4.0(MoE)参数规模1360亿,可在消费级显卡4090上运行。
作者 |  程茜
编辑 |  心缘

智东西4月2日报道,今天,全球移动互联网公司APUS与大模型创企新旦智能宣布,联手开源国内首个千亿参数的MoE(混合专家模型)APUS-xDAN大模型4.0,这也是国内首个可以在消费级显卡上运行的千亿MoE中英文大模型。

APUS-xDAN-4.0(MoE)参数规模为1360亿,可在消费级显卡4090上运行,据APUS实测,其综合性能超过GPT-3.5达到GPT-4的90%

数学能力上,测评基准GSM8K的测评得分为79,理解能力MMLU达到73分。

项目地址:

https://github.com/shootime2021/APUS-xDAN-4.0-moe?tab=readme-ov-file

推荐智东西年度会议。4月18-19日,2024中国生成式AI大会将在北京举行。免费报名或购票通道开放中,期待你的参会~



01.
数学、推理能力碾压
推理成本下降400%


APUS-xDAN-4.0(MoE)在GitHub的页面显示了基准测评结果,其与Mixtral-8x7B(MoE)、Llama2-70B、Grok-1(MoE)进行了对比。

其中衡量模型语言理解、知识和推理能力的基准测试MMLU中,APUS-xDAN-4.0(MoE)排名第一,超过了Grok-1(MoE)。

在测试多步骤数学推理能力的单词问题集合测试GSM-9K以及MATH中,该模型得分均远高于其他三大模型。
四项测试中,APUS-xDAN-4.0(MoE)在多学科任务的BIG-Bench-Hard测试中,得分为66.4,接近Mixtral-8x7B(MoE),低于Grok-1(MoE)的71.7分。

其中,Mixtral-8x7B(MoE)由大模型创企Mistral AI于去年年底发布,并在多项基准测试中性能都基本达到GPT-3.5;Llama2-70B是去年7月Meta开源的Llama 2大模型系列中,参数规模最大的版本;Grok-1(MoE)为马斯克旗下AI创企xAI本月初开源的大模型,参数规模为3140亿参数,是目前开源大模型中参数规模之最。

此外,在GitHub页面显示,APUS-xDAN-4.0(MOE)开源模型在“IQ-Quantized Tech”上量化为1.5位、2位和4位,可以在消费级显卡4090上运行。

具体来说,APUS-xDAN 大模型4.0(MoE)采用GPT-4类似的MoE架构,特点是多专家模型组合,同时激活使用只有2个子模块,实际运行效率对比传统Dense同尺寸模型效率提升200%,推理成本下降400%。在实际部署中,研究人员通过进一步高精度微调量化技术,使得模型尺寸缩小500%


02.
32个MoE Transformer块组成
可处理多线程复杂需求


在实际的效果中,APUS-xDAN-4.0(MoE)可以理解复杂需求,如撰写广告文案时,要求涵盖“火焰人”、固定口号、摇滚乐歌词等。

该模型还可以找出段落中的实时性错误,并给出修改版本,包括品牌所属地区、语病等。

APUS-xDAN-4.0(MOE)模型的架构特点为,主要由32个相同的MoE Transformer块组成,与普通Transformer块相比,MoE Transformer块的FFN层被MoE FFN层替换。

张量经过门层计算每个专家模型的分数,根据专家分数从8个专家模型中选择Top-K专家。张量通过Top-K专家的输出进行聚合,从而得到MoE FFN层的最终输出。

每个专家由3个线性层(Linear Layers)组成。APUS-xDAN-4.0的所有Norm Layer都是用RMSNorm,与开源大模型Llama的方式一致。

在注意力层中,APUS-xDAN-4.0(MoE)中的QKV矩阵的Q矩阵形状为(4096,4096),K和V矩阵形状为(4096,1024)。

▲APUS-xDAN-4.0(MoE)模型架构图


03.
APUS是投资方
7B模型表现超GPT-4


APUS-xDAN-4.0(MoE)背后的两家公司均来自国内,且APUS于今年3月投资了新旦智能。

新旦智能成立于2023年5月,此前该公司发布的xDAN-7B-Global在用于衡量大模型在机器翻译任务性能的综合性评估指标MT-Bench中,性能表现仅次于GPT-4。

▲MT-Bench排名

今年3月,新旦智能完成千万级别天使轮融资,投资方包括APUS和AI投资人周弘扬。

据了解,新旦智能的创始团队汇集了清华、伯克利等顶尖学府以及腾讯、Meta等头部科技玩家的员工,包括全球开源AI社区知名开发者、腾讯云架构师等。

与此同时,这也是APUS在开源大模型领域的最新进展。今年2月初,APUS与深圳大学国家工程实验室联合开源了APUS大模型3.0伶荔。


04.
结语:更强开源MoE模型
或加速AI开发及应用创新


开源大模型对于全球大模型产业的技术进步与应用落地的重要性与日俱增,并逐渐显现出对标当下大模型顶流GPT-4的潜力。
在这个趋势下,APUS与新旦智能联手,既开源了目前国内参数规模最大的MoE模型,同时降低了其部署成本,为更多开发者提供了应用大模型能力的可能性,这或许将进一步加速AI开发及应用创新。

(本文系网易新闻•网易号特色内容激励计划签约账号【智东西】原创内容,未经账号授权,禁止随意转载。)

2024年中国生成式AI大会预告




微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
打破MoE训练效率与性能瓶颈,华为盘古稀疏大模型全新架构LocMoE出炉GPT-4级模型Grok开源可商用!卷底层大模型的公司危了长篇小说 侦破小组之迷案追踪 第十八章AI早知道|马斯克Grok大模型开源;荣耀正式发布首款AI PC;苹果谷歌和OpenAI商谈iPhone大模型使用全球最大开源模型再刷爆纪录!4800亿参数MoE击败Llama 3、Mixtral马斯克发全球最大开源模型!3140亿参数的Grok真打脸OpenAI了?最神秘国产大模型团队冒泡,一出手就是万亿参数MoE,两款应用敞开玩国产黑马一年肝出万亿参数MoE!霸榜多模态,剑指AGI巴塔哥尼亚探风 (3):智利百内国家公园AI早知道|元象开源首个多模态大模型XVERSE-V;信通院发布国内首个汽车大模型标准苹果加入开源大战,官宣端侧小模型OpenELM!参数2.7亿到30亿一台M2 Mac可跑开源大模型Llama 3王者归来!最大底牌4000亿参数,性能直逼GPT-4最强开源大模型Llama 3来了!4000亿参数狙击GPT-4,训练数据达Llama 2七倍Meta无限长文本大模型来了:参数仅7B,已开源天工2.0 MoE大模型发布;苹果开源自动修图神器MGIE;香港公司被AI换脸骗走2亿港元丨AIGC大事日报马斯克突发Grok 1.5!上下文长度至128k、HumanEval得分超GPT-4马斯克打脸OpenAI,全球最大巨无霸模型Grok-1开源!3140亿参数8个MoE,GitHub狂揽6k星大模型又开“卷”!万亿参数闭源模型、四千亿开源模型来了自然说到做到,马斯克开源Grok,3140亿参数免费可商用周末灌水——说个奇人Rudolf Steiner和他的Waldorfschule马斯克官宣Grok-1.5!超GPT-4 16倍上下文,推理能力超DBRX,网友:赢在敢说!刚刚!马斯克开源 Grok:参数量近 Llama 四倍,成全球最大开源模型新开源之王来了!1320亿参数,逻辑数理全面打赢Grok,还比Llama2-70B快1倍最强开源大模型 Llama 3震撼发布!开源模型将追上GPT-4,4000亿参数模型也在路上全球顶尖AI研究者中国贡献26%;1320亿参数大模型开源;Anthropic大模型测评首超GPT-4丨AIGC大事日报马斯克正式开源 Grok-1,成为全球最大的开源大模型英伟达最强通用大模型Nemotron-4登场!15B击败62B,目标单张A100/H100可跑OpenAI CEO最新演讲:GPT-5性能远超GPT-4;媲美Sora,视频生成模型EMO上线通义APP丨AIGC日报开源大模型王座再易主,1320亿参数DBRX上线,基础、微调模型都有开源大模型王座再易主,通义千问1100亿参数拿下SOTA,3个月已推出8款模型天工3.0正式开放!4000亿参数MoE开源,开启音乐生成ChatGPT时刻北京算力基建实施方案重磅发布!重点支持采购自主可控GPU,要支撑万亿参数大模型训练P70系列有3或4款新品;国内首个开源千亿参数MoE大模型来了,对标马斯克的Grok……万物相恋的世界 - 草原上的格桑花阿兰
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。