Redian新闻
>
国内首个开源千亿参数MoE大模型来了!性能超Grok-1,单张GPU可跑

国内首个开源千亿参数MoE大模型来了!性能超Grok-1,单张GPU可跑

科技

APUS-xDAN-4.0(MoE)参数规模1360亿,可在消费级显卡4090上运行。
作者 |  程茜
编辑 |  心缘

智东西4月2日报道,今天,全球移动互联网公司APUS与大模型创企新旦智能宣布,联手开源国内首个千亿参数的MoE(混合专家模型)APUS-xDAN大模型4.0,这也是国内首个可以在消费级显卡上运行的千亿MoE中英文大模型。

APUS-xDAN-4.0(MoE)参数规模为1360亿,可在消费级显卡4090上运行,据APUS实测,其综合性能超过GPT-3.5达到GPT-4的90%

数学能力上,测评基准GSM8K的测评得分为79,理解能力MMLU达到73分。

项目地址:

https://github.com/shootime2021/APUS-xDAN-4.0-moe?tab=readme-ov-file

推荐智东西年度会议。4月18-19日,2024中国生成式AI大会将在北京举行。免费报名或购票通道开放中,期待你的参会~



01.
数学、推理能力碾压
推理成本下降400%


APUS-xDAN-4.0(MoE)在GitHub的页面显示了基准测评结果,其与Mixtral-8x7B(MoE)、Llama2-70B、Grok-1(MoE)进行了对比。

其中衡量模型语言理解、知识和推理能力的基准测试MMLU中,APUS-xDAN-4.0(MoE)排名第一,超过了Grok-1(MoE)。

在测试多步骤数学推理能力的单词问题集合测试GSM-9K以及MATH中,该模型得分均远高于其他三大模型。
四项测试中,APUS-xDAN-4.0(MoE)在多学科任务的BIG-Bench-Hard测试中,得分为66.4,接近Mixtral-8x7B(MoE),低于Grok-1(MoE)的71.7分。

其中,Mixtral-8x7B(MoE)由大模型创企Mistral AI于去年年底发布,并在多项基准测试中性能都基本达到GPT-3.5;Llama2-70B是去年7月Meta开源的Llama 2大模型系列中,参数规模最大的版本;Grok-1(MoE)为马斯克旗下AI创企xAI本月初开源的大模型,参数规模为3140亿参数,是目前开源大模型中参数规模之最。

此外,在GitHub页面显示,APUS-xDAN-4.0(MOE)开源模型在“IQ-Quantized Tech”上量化为1.5位、2位和4位,可以在消费级显卡4090上运行。

具体来说,APUS-xDAN 大模型4.0(MoE)采用GPT-4类似的MoE架构,特点是多专家模型组合,同时激活使用只有2个子模块,实际运行效率对比传统Dense同尺寸模型效率提升200%,推理成本下降400%。在实际部署中,研究人员通过进一步高精度微调量化技术,使得模型尺寸缩小500%


02.
32个MoE Transformer块组成
可处理多线程复杂需求


在实际的效果中,APUS-xDAN-4.0(MoE)可以理解复杂需求,如撰写广告文案时,要求涵盖“火焰人”、固定口号、摇滚乐歌词等。

该模型还可以找出段落中的实时性错误,并给出修改版本,包括品牌所属地区、语病等。

APUS-xDAN-4.0(MOE)模型的架构特点为,主要由32个相同的MoE Transformer块组成,与普通Transformer块相比,MoE Transformer块的FFN层被MoE FFN层替换。

张量经过门层计算每个专家模型的分数,根据专家分数从8个专家模型中选择Top-K专家。张量通过Top-K专家的输出进行聚合,从而得到MoE FFN层的最终输出。

每个专家由3个线性层(Linear Layers)组成。APUS-xDAN-4.0的所有Norm Layer都是用RMSNorm,与开源大模型Llama的方式一致。

在注意力层中,APUS-xDAN-4.0(MoE)中的QKV矩阵的Q矩阵形状为(4096,4096),K和V矩阵形状为(4096,1024)。

▲APUS-xDAN-4.0(MoE)模型架构图


03.
APUS是投资方
7B模型表现超GPT-4


APUS-xDAN-4.0(MoE)背后的两家公司均来自国内,且APUS于今年3月投资了新旦智能。

新旦智能成立于2023年5月,此前该公司发布的xDAN-7B-Global在用于衡量大模型在机器翻译任务性能的综合性评估指标MT-Bench中,性能表现仅次于GPT-4。

▲MT-Bench排名

今年3月,新旦智能完成千万级别天使轮融资,投资方包括APUS和AI投资人周弘扬。

据了解,新旦智能的创始团队汇集了清华、伯克利等顶尖学府以及腾讯、Meta等头部科技玩家的员工,包括全球开源AI社区知名开发者、腾讯云架构师等。

与此同时,这也是APUS在开源大模型领域的最新进展。今年2月初,APUS与深圳大学国家工程实验室联合开源了APUS大模型3.0伶荔。


04.
结语:更强开源MoE模型
或加速AI开发及应用创新


开源大模型对于全球大模型产业的技术进步与应用落地的重要性与日俱增,并逐渐显现出对标当下大模型顶流GPT-4的潜力。
在这个趋势下,APUS与新旦智能联手,既开源了目前国内参数规模最大的MoE模型,同时降低了其部署成本,为更多开发者提供了应用大模型能力的可能性,这或许将进一步加速AI开发及应用创新。

(本文系网易新闻•网易号特色内容激励计划签约账号【智东西】原创内容,未经账号授权,禁止随意转载。)

2024年中国生成式AI大会预告




微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
零一万物发布千亿参数模型 Yi-Large,李开复:中国大模型赶上美国,立志比肩 GPT-5大模型又开“卷”!万亿参数闭源模型、四千亿开源模型来了马斯克打脸OpenAI,全球最大巨无霸模型Grok-1开源!3140亿参数8个MoE,GitHub狂揽6k星全球最大开源模型再刷爆纪录!4800亿参数MoE击败Llama 3、Mixtral说到做到,马斯克开源Grok,3140亿参数免费可商用AI早知道|零一万物发布千亿参数模型;智谱AI上线大模型开放平台AI早知道|元象开源首个多模态大模型XVERSE-V;信通院发布国内首个汽车大模型标准英伟达最强通用大模型Nemotron-4登场!15B击败62B,目标单张A100/H100可跑新开源之王来了!1320亿参数,逻辑数理全面打赢Grok,还比Llama2-70B快1倍最强开源大模型 Llama 3震撼发布!开源模型将追上GPT-4,4000亿参数模型也在路上开源大模型Llama 3王者归来!最大底牌4000亿参数,性能直逼GPT-4国产黑马一年肝出万亿参数MoE!霸榜多模态,剑指AGI打破MoE训练效率与性能瓶颈,华为盘古稀疏大模型全新架构LocMoE出炉Meta无限长文本大模型来了:参数仅7B,已开源天工3.0正式开放!4000亿参数MoE开源,开启音乐生成ChatGPT时刻32专家MoE大模型免费商用!性能全面对标Llama3,单token推理消耗仅5.28%天工2.0 MoE大模型发布;苹果开源自动修图神器MGIE;香港公司被AI换脸骗走2亿港元丨AIGC大事日报长篇小说 侦破小组之迷案追踪 第十八章巴塔哥尼亚探风 (3):智利百内国家公园苹果加入开源大战,官宣端侧小模型OpenELM!参数2.7亿到30亿一台M2 Mac可跑最强开源大模型Llama 3来了!4000亿参数狙击GPT-4,训练数据达Llama 2七倍马斯克发全球最大开源模型!3140亿参数的Grok真打脸OpenAI了?AI早知道|马斯克Grok大模型开源;荣耀正式发布首款AI PC;苹果谷歌和OpenAI商谈iPhone大模型使用P70系列有3或4款新品;国内首个开源千亿参数MoE大模型来了,对标马斯克的Grok……GPT-4o成为全领域SOTA!基准测试远超Gemini和Claude,多模态功能远超GPT-4周末灌水——说个奇人Rudolf Steiner和他的Waldorfschule最神秘国产大模型团队冒泡,一出手就是万亿参数MoE,两款应用敞开玩自然今日arXiv最热CV大模型论文:国产开源视觉大模型InternVL 1.5发布,赶超GPT-4V水准时隔一年Falcon回归!110亿参数5.5万亿token,性能超越Llama 3全球顶尖AI研究者中国贡献26%;1320亿参数大模型开源;Anthropic大模型测评首超GPT-4丨AIGC大事日报马斯克正式开源 Grok-1,成为全球最大的开源大模型万物相恋的世界 - 草原上的格桑花阿兰一块钱100万token,超强MoE模型开源,性能直逼GPT-4-Turbo刚刚!马斯克开源 Grok:参数量近 Llama 四倍,成全球最大开源模型
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。