Redian新闻
>
0门槛免费商用!孟子3-13B大模型正式开源,万亿token数据训练

0门槛免费商用!孟子3-13B大模型正式开源,万亿token数据训练

公众号新闻
白交 发自 凹非寺
量子位 | 公众号 QbitAI

澜舟科技官宣:孟子3-13B大模型正式开源!

这一主打高性价比的轻量化大模型,面向学术研究完全开放,并支持免费商用。

在MMLU、GSM8K、HUMAN-EVAL等各项基准测评估中,孟子3-13B都表现出了不错的性能。

尤其在参数量20B以内的轻量化大模型领域,在中英文语言能力方面尤为突出,数学和编程能力也位于前列。

以上结果基于5-shot。

据介绍,孟子3-13B大模型是基于Llama架构,数据集规模高达3T Tokens

语料精选自网页、百科、社交、媒体、新闻,以及高质量的开源数据集。通过在万亿tokens上进行多语言语料的继续训练,模型的中文能力突出并且兼顾多语言能力。

孟子3-13B大模型开源

只需两步,就能使用孟子3-13B大模型了。

首先进行环境配置。

pip install -r requirements.txt

然后快速开始。

import torch
from transformers import AutoModelForCausalLM, AutoTokenizer

tokenizer = AutoTokenizer.from_pretrained("Langboat/Mengzi3-13B-Base", use_fast=False, trust_remote_code=True)
model = AutoModelForCausalLM.from_pretrained("Langboat/Mengzi3-13B-Base", device_map="auto", trust_remote_code=True)
inputs = tokenizer('指令:回答以下问题。输入:介绍一下孟子。输出:', return_tensors='pt')
if torch.cuda.is_available():
    inputs = inputs.to('cuda')
pred = model.generate(**inputs, max_new_tokens=512, repetition_penalty=1.01, eos_token_id=tokenizer.eos_token_id)
print(tokenizer.decode(pred[0], skip_special_tokens=True))

此外,他们还提供了一个样例代码,可用于基础模型进行单轮交互推理。

cd examples
python examples/base_streaming_gen.py --model model_path --tokenizer tokenizer_path

如果想要进行模型微调,他们也提供了相关文件和代码。

事实上,早在3月18日的澜舟大模型技术和产品发布会现场,就透露了孟子3-13B大模型的诸多细节。

当时他们表示,孟子3-13B大模型训练已经完成。

对于选择13B版本的原因,周明解释道:

首先,澜舟明确以服务ToB场景为主,ToC为辅。

实践发现,ToB场景使用频率最高的大模型参数量多为7B、13B、40B、100B,整体集中在10B-100B之间。

其次,在这个区间范围内,从ROI(投资回报率)角度来讲,既满足场景需求,又最具性价比。

因此,在很长一段时间内,澜舟的目标都是在10B-100B参数规模范围内,打造优质的行业大模型。

作为国内最早一批大模型创业团队,去年3月,澜舟就发布了孟子GPT V1(MChat)。

今年1月,孟子大模型GPT V2(含孟子大模型-标准、孟子大模型-轻量、孟子大模型-金融、孟子大模型-编码)对公众开放。

好了,感兴趣的朋友可戳下方链接体验一下。

GitHub链接:
https://github.com/Langboat/Mengzi3

HuggingFace:
https://huggingface.co/Langboat/Mengzi3-13B-Base

ModelScope:
https://www.modelscope.cn/models/langboat/Mengzi3-13B-Base

Wisemodel:
https://wisemodel.cn/models/Langboat/Mengzi3-13B-Base

【🔥 火热报名中】中国AIGC产业峰会

定档4月17日

峰会已经邀请到数位代表技术、产品、投资、用户等领域嘉宾,共论生成式AI产业最新变革趋势。

目前首批确认参会嘉宾包括:微软陶然昆仑万维方汉美图公司吴欣鸿联想创投宋春雨通义千问林俊旸逐际动力张力人大卢志武北大袁粒小冰公司徐元春金山办公姚冬FusionFund张璐通义大模型徐栋DCM曾振宇澜码科技周健得到快刀青衣实验电影人海辛等。了解更多

欢迎报名峰会 ⬇️

峰会将全程线上下同步直播,欢迎预约直播 ⬇️


点这里👇关注我,记得标星哦~

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见 ~ 

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
百亿tokens免费额度,清华系明星AI公司的羊毛薅起来7036 血壮山河之枣宜会战 “扑朔迷离”南瓜店 134h白嫖lululemon Marketing证书,留学生0门槛拿!仅需Llama3 1/17的训练成本,Snowflake开源128x3B MoE模型最强开源大模型 Llama 3震撼发布!开源模型将追上GPT-4,4000亿参数模型也在路上深圳拟减少住宅公摊面积,字节自研大模型正式亮相 | 财经日日评大语言模型下的JSON数据格式交互英特尔AI PC开启商用元年!打造6大AI场景应用,三大AI引擎助力本地跑20B大模型中国正在掩盖一场经济危机AI早知道|马斯克Grok大模型开源;荣耀正式发布首款AI PC;苹果谷歌和OpenAI商谈iPhone大模型使用马斯克正式开源 Grok-1,成为全球最大的开源大模型4h白嫖lululemon Marketing证书,留学生0门槛!童年忆事 一、三虎国产多模态大模型开源!无条件免费商用,性能超Claude 3 SonnetGPT-4级模型Grok开源可商用!卷底层大模型的公司危了一块钱100万token,超强MoE模型开源,性能直逼GPT-4-Turbo元象首个多模态大模型 XVERSE-V 开源,刷新权威大模型榜单,支持任意宽高比输入清华系2B模型杀出,性能吊打LLaMA-13B,170万tokens仅需1块钱!革命新架构掀翻Transformer!无限上下文处理,2万亿token碾压Llama 2首个中文原生DiT架构!腾讯混元文生图大模型全面开源,免费商用天工3.0正式开放!4000亿参数MoE开源,开启音乐生成ChatGPT时刻大模型又开“卷”!万亿参数闭源模型、四千亿开源模型来了开源大模型火了!(附99个大模型微调模型/数据/工具)!腾讯混元文生图大模型全面开源!Sora同架构,更懂中文,免费商用苹果一次性开源了8个大模型! 包含模型权重、训练日志和设置,OpenELM全面开源选择需要的Token参与训练:微软重塑语言模型训练法则,准确率飙升30%AI早知道|360智脑7B大模型开源;ChatGPT 的全球增长率逐渐下降32专家MoE大模型免费商用!性能全面对标Llama3,单token推理消耗仅5.28%ControlNet作者又出新作:百万数据训练,AI图像生成迎来图层设计Meta首发「变色龙」挑战GPT-4o,34B参数引领多模态革命!10万亿token训练刷新SOTA百亿token免费用!国产平台一键拖拽定制大模型,多元算力极具性价比【解字】品“头”论“足”语言是一门艺术时隔一年Falcon回归!110亿参数5.5万亿token,性能超越Llama 3李彦宏:开源大模型不如闭源,后者会持续领先;周鸿祎:“开源不如闭源” 的言论是胡说八道
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。