Redian新闻
>
百川智能发布 70 亿参数量开源中英文大模型

百川智能发布 70 亿参数量开源中英文大模型

公众号新闻


在多个中英文权威评测榜单上,baichuan-7B 均取得了优异的成绩。


王小川的大模型,首次公开亮相。

2023 年 6 月 15 日,被称为「中国 ChatGPT 梦之队」的百川智能公司,推出了 70 亿参数量的中英文预训练大模型——baichuan-7B。

baichuan-7B 不仅在 C-Eval、AGIEval 和 Gaokao 中文权威评测榜单上,以显著优势全面超过了 ChatGLM-6B 等其他大模型,并且在 MMLU 英文权威评测榜单上,大幅领先 LLaMA-7B。

目前 baichuan-7B 大模型已在 Hugging Face、Github 以及 Model Scope 平台发布。


01

多个最具影响力

中文评估基准 7B 最佳



为了验证模型的各项能力,baichuan-7B 在 C-Eval、AGIEval 和 Gaokao 三个最具影响力的中文评估基准进行了综合评估,并且均获得了优异成绩。

在中文 C-EVAL 的评测中,baichuan-7B 的综合评分达到了 42.8 分,超过了 ChatGLM-6B 的 38.9 分,甚至比某些参数规模更大的模型还要出色。


C-EVAL 评测截图,时间为 2023-06-15


C-Eval 评测基准由上海交通大学、清华大学以及爱丁堡大学联合创建,是面向中文语言模型的综合考试评测集,覆盖了 52 个来自不同行业领域的学科。

在 AGIEval 的评测里,baichuan-7B 综合评分达到 34.4 分,远超 LLaMa-7B、Falcon-7B、Bloom-7B 以及 ChatGLM-6B 等其他开源模型。

AGIEval 评测基准由微软研究院发起,旨在全面评估基础模型在人类认知和问题解决相关任务上的能力,包含了中国的高考、司法考试,以及美国的 SAT、LSAT、GRE 和 GMAT 等 20 个公开且严谨的官方入学和职业资格考试。

在 GAOKAO 评测中,baichuan-7B 的综合评分达到了 36.2 分,显著领先于同参数规模的各种其他预训练模型。

GAOKAO 评测基准是复旦大学研究团队创建的评测框架,以中国高考题目作为数据集,用于测试大模型在中文语言理解和逻辑推理能力方面的表现。


02

MMLU 英文评估基准

表现大幅领先 LLaMA-7B



baichuan-7B 不仅在中文方面表现优异,在英文上表现同样亮眼。在 MMLU 的评测中 baichuan-7B 综合评分高达 42.5 分,大幅领先英文开源预训练模型 LLaMA-7B 的 34.2 分以及中文开源模型 ChatGLM-6B 的 36.9 分。



MMLU 由加州大学伯克利分校等知名高校共同打造,集合了科学、工程、数学、人文、社会科学等领域的 57 个科目,主要目标是对模型的英文跨学科专业能力进行深入测试。其内容广泛,从初级水平一直涵盖到高级专业水平。


03

baichuan-7B 

是如何打造



训练语料对大模型的训练结果至关重要。在构建预训练语料库方面,百川智能以高质量中文语料为基础,同时融合了优质的英文数据。在数据质量方面,通过质量模型对数据进行打分,对原始数据集进行篇章级和句子级的精确筛选;在内容多样性方面,利用自研超大规模局部敏感哈希聚类系统和语义聚类系统,对数据进行了多层次多粒度的聚类,最终构建了包含 1.2 万亿 token 的兼顾质量和多样性的预训练数据。相较于其他同参数规模的开源中文预训练模型,数据量提高了超过 50%。

在万亿优质中英文数据的基础上,为了更好地提升训练效率,baichuan-7B 深度整合了模型算子来加快计算流程,并针对任务负载和集群配置,自适应优化了模型并行策略以及重计算策略。通过高效的训练过程调度通信,baichuan-7B 成功地实现了计算与通信的高效重叠,进而达到了超线性的训练加速,在千卡集群上训练吞吐达到 180+Tflops 的业界领先水平。

同时,已有的开源模型窗口长度在 2K 以内,对于一些长文本建模任务,如需要引入外部知识做搜索增强的场景,更长的处理长度有助于模型在训练与推理阶段捕获越多的上下文信息,2K 的处理长度存在比较大的制约。baichuan-7B 基于高效的 attention 算子优化实现了万级别超长动态窗口的扩张能力,本次开源的预训练模型开放了 4K 上下文窗口,使模型应用场景更加广泛。

此外,baichuan-7B 还对模型训练流程进行了深度优化,采用了更科学且稳定的训练流程和超参数选择,使得 baichuan-7B 模型的收敛速度大大提升。与同等参数规模的模型相比,baichuan-7B 在困惑度(PPL)和训练损失(training loss)等关键性能指标上表现更加优秀。


04

免费可商用,

清华北大率先使用助力研究



秉持开源精神,baichuan-7B 代码采用 Apache-2.0 协议,模型权重采用了免费商用协议,只需进行简单登记即可免费商用。

baichuan-7B 此次开源的内容十分丰富,包含了推理代码、INT4 量化实现、微调代码,以及预训练模型的权重。其中,微调代码方便用户对模型进行调整和优化;推理代码与 INT4 量化实现则有助于开发者低成本地进行模型的部署和应用;预训练模型权重开源后,用户则可以直接使用预训练模型进行各种实验研究。

据了解,北京大学和清华大学两所顶尖大学已率先使用 baichuan-7B 模型推进相关研究工作,并计划在未来与百川智能深入合作,共同推动 baichuan-7B 模型的应用和发展。

清华大学互联网司法研究院院长、计算机系教授刘奕群认为,baichuan-7B 模型在中文上的效果表现十分出色,它免费商用的开源方式展现出开放的态度,不仅贡献社区,也推动技术发展。团队计划基于 baichuan-7B 模型开展司法人工智能领域的相关研究。

北京大学人工智能研究院助理教授杨耀东认为,baichuan-7B 模型的开源将对于中文基础语言模型的生态建设及学术研究产生重要推动作用,同时他也表示将持续关注相关领域探索,并且在中文大语言模型的安全和对齐上进行进一步深入研究。

百川智能 CEO 王小川表示:「本次开源模型的发布是百川智能成立 2 个月后的第一个里程碑,对百川智能而言是一个良好的开局。baichuan-7B 模型,不仅能为中国的 AGI 事业添砖加瓦,也为世界大模型开源社区贡献了新的力量。」


开源地址:

  • Hugging Face:

    https://huggingface.co/baichuan-inc/baichuan-7B

  • Github:

    https://github.com/baichuan-inc/baichuan-7B

  • Model Scope:

    https://modelscope.cn/models/baichuan-inc/baichuan-7B/summary



极客一问

你看好 baichuan-7B 吗




 

热点视频

Sam Altman 演讲呼吁全人类为即将到来的 AGI 时代做好准备!AGI 的强大能力将从根本上改变人类文明,随着越来越强大的 AI 系统出现,全球合作的重要性前所未有。这意味着我们需要建立极具包容性的国际规范和标准,保障之下,人类将与 AI 合作,在人工智能领域发挥出更大的潜力与灵感。


点赞关注极客公园视频号

观看更多精彩视频


 

更多阅读



微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
百川智能发布开源中英文大模型,多个榜单评测成绩最佳我在iPhone上装了70亿参数大模型,来自陈天奇团队最新成果百川智能王小川:大模型创业100天,我确认找到了属于我的「无人区」苹果已研究生成式AI多年/阿里云开源通义千问70亿参数模型/新一代Switch最早本月宣布双声子 南山晨雪参数是 ChatGPT 的近 6 倍!英特尔公布 AI 大模型 Aurora genAI,具备 1 万亿参数GPT-4关键信息遭泄露;北京将发4000万元算力券;百川智能推130亿参数大模型丨AIGC大事日报650亿参数,8块GPU就能全参数微调:邱锡鹏团队把大模型门槛打下来了鞭牛晚报:东方甄选抖音直播间被关;搜狗原CMO洪涛将入职百川智能;薇娅夫妇公司被诉侵权GPT-4参数最新爆料!1.76万亿参数,8个2200亿MoE模型,PyTorch创始人深信不疑从今天起,可以躺平了​​李嘉诚将投资千亿在欧洲建5G网络;王小川发布开源中英文大模型;​钟薛高回应21家分公司全部注销;故宫禁止未经允许进行商业拍摄【感动我的歌曲】一首曲子的春天想象百川开源最强中英文百亿参数模型!超越LLaMA,中国开源大模型开启商用新纪元前搜狗CMO洪涛入职百川智能 与王小川茹立云再度联手创业爱奇艺VR公司业务停滞,员工或被欠薪;阿里云开源通义千问 70 亿参数模型,免费可商用;华为正式发布鸿蒙 4,接入大模型|Q资讯国内开源第一!百川开源大模型Baichuan-13B评测揭晓|SuperCLUE免费、可商用,阿里云开源70亿参数通义千问大模型650亿参数,8块GPU就能全参数微调!邱锡鹏团队把大模型门槛打下来了!王小川创办的百川智能发布Baichuan-13B 参数量达130亿OpenAI对ChatGPT进行更新;百川智能正式推出70亿参数开源中英文大模型|AIGC周观察第六期搜狗三剑客齐聚「百川智能」!搜狗原CMO洪涛下周入职王小川新公司参数是ChaGPT的近6倍!英特尔公布AI大模型Aurora genAI,具备1万亿参数火星人的大棋和小花招复旦新作:单机微调650亿参数大模型;蚂蚁、百度参投AI大模型创企;杭州检方对AI换脸案提起公诉丨AIGC大事日报又一国产大模型来了,超对称联合复旦大学发布 120 亿参数语言模型 BBT-2, 已开源拳打智谱,脚踢 Meta,百川智能成了 7B 规模大模型 NO.1?十亿参数,一键瘦身!「模型减重」神器让大模型狂掉3/4 | 最“in”大模型650亿参数,训练飙升38%!LLaMA基础大模型复刻最佳实践开源,GitHub已获30k星650亿参数大模型预训练方案开源可商用!LLaMA训练加速38%,来自明星开源项目复旦MOSS升级版开源上线;马斯克启动TruthGPT;海康训练出百亿参数CV大模型丨AIGC大事周报性能超越Llama2-13B,可免费商用,姚星创业公司开源百亿参数通用大模型王小川大模型首亮相!70亿参数霸榜,清北抢先用|独家专访清华系面壁智能开源中文多模态大模型VisCPM :支持对话文图双向生成,吟诗作画能力惊艳文革记忆 (一)
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。