Redian新闻
>
百川智能开源最新商用大模型!王小川:比LLaMA更香,下一枪打ChatGPT

百川智能开源最新商用大模型!王小川:比LLaMA更香,下一枪打ChatGPT

公众号新闻
衡宇 发自 凹非寺
量子位 | 公众号 QbitAI

我们现在可以获得比LLaMA更友好,且能力更强的开源模型。

这次在发布会现场表达出“遥遥领先”之意的,是百川智能CEO王小川。

保持一个月新发布一次大模型的频率,百川智能最新开源微调后的Baichuan2-7B,并且免费商用。

王小川表示,MMLU等英文评估基准的英文主流任务评分,70亿参数量的Baichuan2-7B在英文主流任务上与130亿参数的LLaMA2相当。

一并开源的还有Baichuan2-13B、Baichuan 2-13B-Chat与其4bit量化版本,以及模型训练从220B到2640B全过程的Check Poin。

同时公布了详细介绍训练细节的Baichuan2技术报告,旨在让外界了解其训练过程,“更好地推动大模型学术研究和社区的技术发展”。

Baichuan2系列大模型,开源的

Baichuan2系列的两款开源大模型,分别是70亿参数的Baichuan2-7B,以及130亿参数的Baichuan2-13B。

其数据取自万亿互联网数据和垂直行业,训练token规模在2.6TB。

据悉,Baichuan2系列大模型的数据处理借鉴了很多搜索时用到的经验。

一方面是在超大规模内容通过聚类系统,达到“小时级完成千亿数据清洗和去重工作”;另外,大部分数据清洗时进行了多粒度内容质量打分,支持细颗粒采样,从而提高模型质量(尤其是中文领域)

系列里的两者均支持中、英、西、法等数十种语言,主要应用学术研究、互联网、金融等领域。

相比一代,Baichuan2数学能力提升49%,代码能力提升46%,安全能力提升37%,逻辑能力提升25%,语义理解能力提升15%,文理科能力方面均有提升。

百川在infra层也做了优化,使得现在在千卡A800集群里达到180TFLOPS的训练性能,使得机器利用率超过50%。


王小川在现场表示,在模型参数和结构设置上,Baichuan大模型尽可能靠近LLaMA系列。

这样做的最大的意义在于,让社区用户能够直接从LLaMA换成百川的模型。同时,我们尽可能兼容更多的社区生态。

除了再更大模型,百川智能还公布了3000亿-2.6万亿tokens的模型训练中间过程。

也就是说,百川像切片一样把不同大小token的能力开发出来,“对大家理解预训练,或者在预训练上做微调强化更容易操作。”

这也是在国内首次有公司能开放这样的训练过程。

值得一提的是,百川系列大模型对学术界师生开通了绿色通道,申请时可以获得更多资料,以帮助学术。

预计明年1季度推出“超级应用”

自成立起,百川智能保持着月更大模型的速度,呈现出开闭源交替发布的情况。

此前Baichuan-7B、Baichuan-13B开源后,Hugging Face首周下载量破百万,总下载量为500万,是全球下载量最高的开源大模型,申请部署试用的企业数量超200家。

闭源模型方面,则有上个月发布的Baichuan-53B,对大模型和搜索进行了“很高程度”的融合。

为何“开源+闭源”并行?

“在二季度最后一个月,我们认为当时的需求,也是我们能贡献的地方,就是开源模型。”王小川现场解释称,“所以成立公司之后我们就发布开源模型,同时兼顾闭源大模型的训练。”

迄今为止,国内发布的大模型总数超百家。

不只是训模型,“落地”这一步也来到眼前:一周前,首批11家国产AI大模型也开始向公众开放。

但如中国科学院院士、清华大学人工智能研究院名誉院长张钹在发布会演讲时提到,市面上的大模型,“主要集中在垂直领域的应用上”,而不是“对大模型的学术研究本身”。

然而,这个工作既迫切,又重要。

到现在为止,全世界对大模型的理论工作原理、所产生的现象都是一头雾水,所有的结论都推导产生了“涌现现象”。

所谓涌现,就是解释不清楚的情况下给自己一个退路。我认为这个问题必须要把它搞清楚。

大模型赛道自身的繁荣,开源有益对创新和研发效率的助推,都有利于彻底了解GPT。

确定开闭源并行的公布模式,密集对外公布阶段性成果,目前App已实现对外开放,百川智能的下一步计划是什么?

今年四季度,预计发布千亿参数大模型。

明年一季度左右,预计推出“超级应用”。

这两个时间节点,也被诸多大模型厂商和创业公司此前立下flag。感觉到时候,作用用户一方,咱们又有更多期(hao)待(xi)了~

— 联系作者 —


「AIGC+垂直领域社群」

招募中!

欢迎关注AIGC的伙伴们加入AIGC+垂直领域社群,一起学习、探索、创新AIGC!

请备注您想加入的垂直领域「教育」或「广告营销」,加入AIGC人才社群请备注「人才」&「姓名-公司-职位」。


点这里👇关注我,记得标星哦~

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见 ~ 


微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
性能碾压Llama 2,全球下载量超500万,百川智能开源模型凭什么?混合精度下位置编码竟有大坑,llama 等主流开源模型纷纷中招!百川智能给出修复方案性能超越Llama2-13B,可免费商用,姚星创业公司开源百亿参数通用大模型absolon 2003, kelly brookChatGPT之父剑桥演讲遭抵制;百川智能推出192K大模型;影星斯嘉丽起诉AI开发商|AIGC周观察第二十三期王小川创办的百川智能发布Baichuan-13B 参数量达130亿GPT-4关键信息遭泄露;北京将发4000万元算力券;百川智能推130亿参数大模型丨AIGC大事日报每日烧钱500万,OpenAI或已在破产边缘;B站回应莫言账号被封;王小川谈ChatGPT:程序员是自己的“掘墓人”丨邦早报全面拥抱大模型!腾讯正式开放全自研通用大模型:参数规模超千亿、预训练语料超 2 万亿 tokens前搜狗CMO洪涛入职百川智能 与王小川茹立云再度联手创业百川智能发布Baichuan2大模型:全面领先Llama2,训练切片也开源了百川智能推出全球最长上下文窗口大模型Baichuan2-192K,一次可输入35万字超越Claude2百川智能王小川:大模型创业100天,我确认找到了属于我的「无人区」华为将推盘古数字人大模型;搜狗原CMO加盟王小川公司;首个线性注意力Transformer大模型推出丨AIGC大事日报搜狗三剑客齐聚「百川智能」!搜狗原CMO洪涛下周入职王小川新公司曝大基金三期将投3000亿!马斯克起诉中国公司侵害特斯拉技术秘密;王小川发布全新开源大模型! | AIoT情报王小川:中国大模型第一梯队不超过5家,我们会是其中之一UC伯克利团队开源MemGPT大模型上下文内存管理方案;AgentLM、多模态Fuyu-8B、数学LLEMMA等专用大模型开源王小川:坐在电脑前的工作大概率会被大模型取代,且坐的时间越长,越容易被取代珍珠塔的回响周日随笔周日爱美丽小三比赛,我顺便跑步微软赢麻了!联合Meta 重磅发布开源、可直接商用大模型Llama 2,网友:OpenAI 感觉如何?百川智能发布Baichuan2,王小川:中国企业用LLaMA2的时代过去了|甲子光年AI公司第四范式IPO上市;雷军王小川联手搞小米大模型;百度发布量子领域大模型;AI新技术90秒识别癌;苹果疯狂购买AI初创公司Meta被曝明年发布「开源版GPT-4级」全新大模型!参数量比Llama 2大数倍,可免费商用对话王小川:决定大模型的胜负,钱很重要,人更重要长篇小说连载《此世,此生》第五十二章三百川开源最强中英文百亿参数模型!超越LLaMA,中国开源大模型开启商用新纪元扎克伯格公开怒斥马斯克炒作;被停职的王军传重回华为车BU;王小川称用电脑工作时间越长越会被ChatGPT取代丨雷峰早报百川智能获阿里腾讯等3亿美元投资;vivo AI助手Jovi Copilot曝光;商汤推医疗健康大模型“大医”丨AIGC大事日报昆仑万维开源130亿参数大模型!0门槛商用、多榜超Llama 2,预训练数据也开源王小川大模型25天再升级!13B版本开源免费可商用,3090即可部署王小川:GPT-4一直在进步 中国大模型赶上要两三年首次击败GPT-4?700亿参数Xwin-LM登顶斯坦福AlpacaEval,13B模型吊打ChatGPT
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。