Redian新闻
>
最新千亿大模型免费商用:1026亿参数,无需授权!诚邀开发者共同训练

最新千亿大模型免费商用:1026亿参数,无需授权!诚邀开发者共同训练

其他
明敏 金磊 发自 凹非寺
量子位 | 公众号 QbitAI

开源大模型这个圈子,真是卷到不行——

国内最新纪录来了,直奔千亿量级,达到1026亿。

千亿参数、全面开源、无需授权可商用,GitHub均可全面下载使用,就问你激动不激动!

这便是来自浪潮信息最新的开源大模型,源2.0;话不多说,直接来看下测试结果~

在业界公开的数据集上,源2.0与GPT-4、Llama 2同台竞技的结果如下:

采用与源2.0相同的输入调用ChatGPT测试的结果,测试时间是11月

不难看出,在代码、数学、事实问答等各项的成绩,除了GPT-4(闭源)之外,源2.0均处于领先地位。

而且浪潮信息此次还一口气发布了三款型号的模型,均完全开源:

  • “中杯”:源2.0-2B,参数量为21亿;

  • “大杯”:源2.0-51B,参数量为518亿;

  • “超大杯”:源2.0-102B,参数量为1026亿。

纵观今年百模大战的下半场,开源圈可谓是热闹非凡,每隔一段时间便会有新的开源大模型杀出重围。

但浪潮信息所开源的源2.0,不仅是第一个触及千亿参数规模,更是做到了发布即彻底开源。

那么它能够做到如此的底气又是什么?

算法、数据、计算全升级

首先我们进一步来看下源2.0的具体表现。

例如在多轮对话知识问答方面,我们先给它投喂一句:

请解释一下“乌鸦反哺”的涵义。

源2.0便可精准答出这个成语的意思和所形容的内容。

在此基础之上,我们继续让它用这个成语作诗,源2.0也是信手拈来:

由此可见,在知识问答、多轮对话领域,源2.0是完全能够hold得住的。

我们继续加大难度,上数学题——求解曲线某点处的切线方程!

从源2.0的作答中,我们可以看到它不仅是给出正确答案那么简单,更是将解题步骤一点一点地详细罗列出来。

再来一道,答案同样是非常有逻辑且清晰。

在生成代码方面,源2.0亦是不在话下:

上述的案例也对应了源2.0在各项国际评测中的高分,那么源2.0又是如何做到的呢?

我们发现,此次浪潮信息在把大语言模型开源之际,也将背后的相关技术论文也一并亮了出来。

纵观这篇论文,我们可以将浪潮信息的改进归结为三大方面。

01、数据的改进

“数据质量的高低直接决定大语言模型输出结果的好坏”,这一点是已然业界达成共识。

因此,相比于源1.0版本,浪潮信息将此前占比最大的网页数据(CC)的比重降低,增加了百科、书籍、期刊数据,同时还引入了代码和数学数据。

这便是源2.0能在数学逻辑能力上大幅提升的原因之一。

与此同时,浪潮信息还在数据增强和合成方面使出了杀手锏——造大语言模型,也“利用”大语言模型。

具体来说就是用大语言模型作为训练数据生成器,构建高质量数学、代码合成数据集,即用于源2.0的预训练中,也用于微调。

其目的就是生成高质量的指令数据,从而降低人工标注成本大、质量不可控的因素。

02、算法的改进

在算法方面,源2.0采用了一种新型Attention结构:局部注意力过滤增强机制(Localized Filtering-based Attention,LFA)。

传统Attention机制是对所有输入文字一视同仁,不假设自然语言相邻词之间更强的语义关联。

比如“我想吃中国菜”这个句子,分词后变成“我/想/吃/中国/菜”。

传统Attention机制会同等对待这6个token,而LFA的升级在于,会假设相邻词间具有更强的依赖

通过强化相邻词之间的关联,然后再计算全局管关联,能更好处理自然语言的语序排列问题,对中文语境的关联语义理解更准确。

在消融实验中,相比传统注意力结构,LFA模型精度提高3.53%。

同时经过工程化验证,LFA算法在提升模型精度的同时,有效降低了模型参数量,进而减小内存开销,实现降本增效。

基于LFA的模型结构,源2.0-102B模型训练288B的Tokens,最终Training Loss为1.18;源1.0-245B模型训练180B的Tokens,最终Training Loss为1.64.从源1.0到源2.0,Training Loss降低28%。

03、计算的改进

相较于源1.0的计算方案,源2.0也进行了升级。

它在3D并行策略的基础上,提出了非均匀流水并行+优化器参数并行(ZeRO)+数据并行的策略。

采用源2.0的分布式训练算法,性能几乎不随带宽变化(0.4%),模型预测的源2.0模型每步计算总耗时与实测值的相对误差仅为3%

而在经典3D并行中,当芯片之间连接的带宽从400GB/s降低至100GB/s,性能会降低约85%。

具体方案中,非均匀流水并行,能有效环节流水线头部与尾部的内存瓶颈。

优化器参数并行,能进一步降低流水线每个阶段的参数量,通信复杂度与数据并行类似。

综上,源2.0的面世还伴随着算法、数据、计算三方面更底层的创新。

随着源2.0的开源、论文上线,这些创新也能直接向整个社区输出。

浪潮信息此次推出了开源共训计划

为了让开源模型更符合开发者应用需求,这个计划支持开发者提出自己的应用或场景需求,由浪潮信息来准备训练数据并对源大模型进行增强训练,训练后的模型依旧在社区开源。

开发者提出的需求没有具体格式要求,只要表达清楚应用场景、对大模型能力的需求以及1~2条示例即可。

不过一直以来,浪潮信息在行业内的角色定位都更偏向于算力基础设施方。

自源1.0之后,此时浪潮信息的“新一轮大模型入世之道”剑指何方?而它为什么能带来这些创新?

背后打造者

实际上,源2.0大模型是浪潮信息AIGC整体规划的一部分。

作为算力行业龙头玩家,浪潮信息通过开放共享自身的算力平台、技术、实践经验,构建算力基础设施+算法基础设施,从技术和基础设施支撑方面,降低AI开发壁垒和门槛。

换言之,浪潮信息不仅提供大模型所需的算力资源,更提供大模型开发应用的一系列服务

为此浪潮信息持续布局基础算法、训练加速、算力调度管理等方面。源2.0大模型的推出,正是整体战略中的最新举措。

2021年浪潮信息推出“源1.0”大模型,成为国内最早布局大模型的企业之一

“源1.0”是中文AI巨量模型,规模达2457亿参数,一度问鼎全球最大单体大模型。

同时团队还完成了5TB高质量中文数据集清洗工作,建立了完整的从公开数据爬取到数据清洗、格式转化、数据质量评估的完整流程和工具链。

随后,“源1.0”落地南京智算中心,也成为国内首个(城市级)开放提供领先的智能大模型服务

过去2年中,浪潮信息也不断向行业输出大模型开发应用的能力。

比如助力网易伏羲中文预训练大模型“玉言”登顶中文语言理解权威测评基准CLUE分类任务榜单,并在多项任务上超过人类水平。

2022年底ChatGPT趋势爆发,一时之间,百模兴起。

大模型的算力需求成为今年业内最热门话题之一。

无论是想要炼成一个大模型、提升模型智能水平,还是扩大应用,都和算力投入直接相关,业内也一度兴起了“囤算力”热潮。

但拥有足够算力只是第一步,怎么用好才是更关键的,也更困扰行业。

大模型训练过程比传统分布式训练更复杂,训练周期长达数月,容易出现训练中断、集群计算效率低、故障频发且复杂等问题。

作为算力行业龙头玩家,浪潮信息在今年8月推出了大模型智算软件栈OGAI“元脑生智”

它能提供AI Infra能力,提供从集群系统环境部署到算力调度保障和大模型开发管理的全栈全流程的软件,从而大幅提升大模型算力效率。

AI Infra的本义是AI基础设施,但目前业内更倾向于将其定义为软件层面。浪潮信息的OGAI(Open GenAI Infra)处于智算硬件之上、AI应用之下的软件层,强调系统环境部署、算力调度保障、模型开发管理三方面能力。

OGAI由5层架构组成,从L0到L4分别对应于基础设施层的智算中心OS产品、系统环境层的PODsys产品、调度平台层的AIStation产品、模型工具层的YLink产品和多模纳管层的MModel产品。

能实现自动化部署和弹性扩展,具备大模型断点续训能力,提供经过验证的数据治理、大模型预训练和微调开发工具,还能对多模型进行管理评估,加速模型部署和应用。

这些能力组合,可以解决最备受关注的三方面问题:

  • 算力资源的高效性:相同时间相同资源下更快完成训练,或者相同时间内处理更多任务。

  • 算力集群的可扩展性:随着模型参数量、数据集扩大,对计算资源的需求增大,需要算力集群可灵活扩展。但是由于并行计算必定会造成损耗,尽可能保持线性性能扩展,也是充分挖掘算力的一部分。

  • 算力系统的可持续性:大模型训练中因为故障出现训练中断,就需要从最新的Checkpoint重新载入继续训练。每一次中断都需要花费时间修复,也会消耗资源,所以要尽可能提高算力系统的可持续性,提高效率降低成本。

在实际能力上,OGAI支持断点续训恢复、平均故障处理时间小于5分钟;千亿模型千卡集群平均计算峰值效率提升54%;支持多元算力,可稳定接入40+多元算力。PODsys还是业内首个开源的AI算力集群系统环境部署方案。

至此,浪潮信息不仅积累了大模型开发能力,还成功向行业输出大模型训练部署管理经验,加速整个生成式AI浪潮的演进速度。

如今推出源2.0正是例证,它诠释了“如何让算力更好地匹配智能涌现”。

用最先进大模型作为底座,从垂直场景针对性切入,构建技能模型、进而落地行业模型,也是当前业内已经确定的发展路径,是走向AGI的必经之路。

显然,源2.0发布的意义,已经不局限于“一个新模型诞生”。

源2.0意味着什么?

对于浪潮信息自身而言,源2.0的推出意味着智算力的再次升级。

大模型趋势的核心,还是要看最终能给产业带来何种影响,即大模型的应用落地。

源1.0在To B领域的深度融合,已经验证了路线的正确性。源2.0的推出,便是在此前基础上进一步升级,之后可以提供更加满足生成式AI趋势的模型、算力、应用需求。

对于大模型趋势而言,源2.0给行业增加了一个基座的选择。

目前业内已经达成一个共识,在“百模大战”初期,百花齐放是利好的。这能更大程度上释放生产力,推动行业发展。

而且源2.0在算法、计算、数据上的创新,也向前推动了技术发展。

比如LFA的创新,给Transformer架构上限挖掘提出了一种参考;非均匀流水并行+优化器参数并行(ZeRO)+数据并行策略的提出,改进了源2.0的计算,也为行业提出了缓解内存/计算瓶颈方案。

对于全行业而言,源2.0全面开源,让生态更加繁荣。

优秀开源模型是吸引开发者、繁荣生态的关键因素,它能让创新进行指数级增长,避免“重复造轮子”问题,加速创新迭代速度,给行业提供扎实底座和成长土壤。

最后,随着源2.0的推出,浪潮信息的AIGC战略版图变得更加清晰,也向业内展示了从算力角度出发,可以为行业提供怎样的解决方案。

目前,国内“百模大战”开始进入下半场。

后续还会有新模型入场,已发布模型也在继续不断扩大规模,同时推理需求也开始加速增长。

整体市场的算力需求变得更加复杂多样化。

在这样的激烈变化之下,国产算力供应方还会向行业交出哪些答卷,值得关注。

MEET 2024大会定档!

最新嘉宾阵容公布

12月14日,量子位「MEET2024智能未来大会」不容错过!点击报名线下现场

李培根院士、李开复博士及十余位AI各领域领先企业核心负责人已确认出席!戳此了解嘉宾详情:第二批嘉宾来袭!报名MEET2024的理由,今天又多了一个

< 左右滑动查看嘉宾海报 >

点击“预约”按钮,一键直达大会直播现场!


点这里👇关注我,记得标星噢

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见 ~ 

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
图文并茂,三步速出「原神」文稿!首个70亿参数图文混合创作大模型正式开源,一键生成神作港大等发布GraphGPT:1/50微调参数,准确率提升10倍!无需超长token,LLM也能读懂图结构秒杀700亿Llama 2!最新国产大模型亮相,无需申请即可免费商用,背后公司来自私募巨头从「最强2D」升维「最强3D」!智源联合清北重磅发布10亿参数Uni3D视觉大模型免费大模型实战课|首周聚焦百度智能云千帆大模型平台使用,《大模型应用实践》实训营11月16日开讲!高通甩出最强芯片三件套!手机跑100亿参数大模型,PC芯片逆袭苹果英特尔医药代表的故事 1 引言AI早知道|微软Copilot将可免费使用GPT-4Turbo; 国产670亿参数大模型DeepSeek亮相上海AI实验室开源科学大模型,理科能力全线提升,免费商用正面硬刚GPT-4V!浙大校友开源多模态大模型LLaVA-1.5,130亿参数8个A100一天训完幻方量化开源国内首个MoE大模型,全新架构、免费商用李开复旗下340亿参数开源大模型被指“套壳LLaMA”,最新回应来了!北大最新多模态大模型开源:在混合数据集上训练,无需修改直接用到图像视频任务红色日记 权与路线 11.1-15中文最强开源大模型来了!130亿参数,0门槛商用,来自昆仑万维国产开源模型标杆大升级,重点能力比肩ChatGPT!书生·浦语2.0发布,支持免费商用720亿参数大模型都拿来开源了!通义千问开源全家桶,最小18亿模型端侧都能跑OpenAI 忙着“宫斗”,手握 2.2 万块 H100 的竞争对手趁机发布新款大模型:1750 亿参数,性能仅次于 GPT-4苹果iOS 18将搭载生成式AI;谷歌Bard最新排名超GPT-4;百川发超千亿参数大模型Baichuan 3丨AIGC大事日报恭喜:您已关注公众号满1年!诚邀您加入《国学易学交流群》!70 死亦为鬼雄昆仑万维开源130亿参数大模型!0门槛商用、多榜超Llama 2,预训练数据也开源忍笑一一难度不小百度智能云千帆官方出品,大模型免费实战教学,百度算法工程师从0-1教你搭建AI原生应用打通大模型训练任督二脉!国内首个千亿参数、全面开源大模型来了,还联手开发者共训王剑前赴后继的误判7B羊驼战胜540B“谷歌版GPT”,MIT用博弈论调教大模型,无需训练就能完成OpenAI首届开发者大会内容曝光;马斯克xAI大模型进展公布;中国第二批大模型备案获批丨AIGC大事日报元象XVERSE-65B:国内最大开源模型来了,高性能无条件免费商用浪潮信息发布“源 2.0”,千亿参数大模型开源可商用国内最大开源模型发布,无条件免费商用!参数650亿,基于2.6万亿token训练AMD王宏强:700亿参数大模型单个GPU部署,做好AI软件和生态实现“开箱即用”丨GACS 2023OpenAI忙着“宫斗”,手握2.2万块H100的竞争对手趁机发布新款大模型:1750亿参数,性能仅次于GPT-4高达2万亿参数,远超GPT-4!亚马逊全新Olympus大模型曝光,即将对外公布7.7亿参数,超越5400亿PaLM!UW谷歌提出「分步蒸馏」,只需80%训练数据|ACL 2023
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。