Redian新闻
>
阿拉伯语AI大模型Jais正式开源,参数达130亿

阿拉伯语AI大模型Jais正式开源,参数达130亿

公众号新闻
出品 | OSC开源社区(ID:oschina2013)
阿联酋研究团队近日宣布开源阿拉伯语大模型 Jais
Jais 是一个经过 130 亿个参数预训练的阿拉伯语和英语双语大型语言模型,在包含 720 亿个阿拉伯语词块和 2790 亿个英语 / 代码词块的数据集上进行训练。该模型由 Cerebras、阿联酋人工智能大学和 G42 旗下子公司 Inception 合作研发。
Jais 的命名来自阿联酋的最高峰,阿联酋人工智能大学教授 Timothy Baldwin 表示,由于没有足够的阿拉伯语数据来训练 Jais 大小的模型,因此英语数据中的计算机代码有助于训练模型的推理能力。
目前这款模型现已开源,用户可以从 HuggingFace 获取。
https://huggingface.co/inception-mbzuai/jais-13b


往期推荐



来自C++之父Bjarne Stroustrup的人生建议
Meta开源Code Llama,号称编程领域 “最先进的大语言模型”
登顶Hacker News!国产编程语言MoonBit(月兔)来了



这里有最新开源资讯、软件更新、技术干货等内容

点这里 ↓↓↓ 记得 关注✔ 标星⭐ 哦


微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
1800亿参数,世界顶级开源大模型Falcon官宣!碾压LLaMA 2,性能直逼GPT-41800亿参数,性能碾压Llama 2,世界最强开源大模型Falcon 180B发布哼哧哼哧,太刺激了王小川月更大模型:530亿参数但闭源,现场拷问室温超导相关问题650亿参数,训练飙升38%!LLaMA基础大模型复刻最佳实践开源,GitHub已获30k星人手一个编程助手!北大最强代码大模型CodeShell-7B开源,性能霸榜,IDE插件全开源夏日杂诗UC伯克利团队开源MemGPT大模型上下文内存管理方案;AgentLM、多模态Fuyu-8B、数学LLEMMA等专用大模型开源国产大模型开源一哥再登场,最强双语LLM「全家桶」级开源!340亿参数超越Llama2-70B易现EZXR AR-Glasses正式开售,推出软硬一体新方案冷却的不止季节(86)— 海外来电霸榜测评的开源大模型,为何是阿拉伯人搞出来的?十亿参数,一键瘦身!「模型减重」神器让大模型狂掉3/4 | 最“in”大模型全球最强CPU一夜易主,130亿参数大模型被塞进PC,没网也能生成邮件周报PPT百川开源最强中英文百亿参数模型!超越LLaMA,中国开源大模型开启商用新纪元今天就去逛!曼哈顿第1家Wegmans正式开业!现场爆火..全面拥抱大模型!腾讯正式开放全自研通用大模型:参数规模超千亿、预训练语料超 2 万亿 tokens正面硬刚GPT-4V!浙大校友开源多模态大模型LLaVA-1.5,130亿参数8个A100一天训完美国迈阿密(Miami),港口晚霞艺术大师怎样设计豪宅?国产130亿参数大模型免费商用!性能超Llama2-13B,支持8k上下文,哈工大已用上传滴滴造车VP创业大模型;澜舟科技推出400亿参数通用大模型;商汤AIGC相关收入增长670.4%王小川创办的百川智能发布Baichuan-13B 参数量达130亿大模型可以摆脱落地难的问题吗?InfoQ 大模型技术应用创新大赛正式开启!图文并茂,三步速出「原神」文稿!首个70亿参数图文混合创作大模型正式开源,一键生成神作开源大模型FLM-101B:训练成本最低的超100B参数大模型GPT-4关键信息遭泄露;北京将发4000万元算力券;百川智能推130亿参数大模型丨AIGC大事日报650亿参数大模型预训练方案开源可商用!LLaMA训练加速38%,来自明星开源项目1300亿参数,国内首个数学大模型MathGPT上线!多项基准赶超GPT-4沈向洋周明杨格大模型激辩:继续爆堆参数,大模型能出现新的「智能涌现」吗?性能超越Llama2-13B,可免费商用,姚星创业公司开源百亿参数通用大模型爱奇艺VR公司业务停滞,员工或被欠薪;阿里云开源通义千问 70 亿参数模型,免费可商用;华为正式发布鸿蒙 4,接入大模型|Q资讯英国科技总增值27%来自开源,价值达135.9亿英镑免费、可商用,阿里云开源70亿参数通义千问大模型炸了: 爆川普女婿收阿拉伯20亿, 拜登父子更严重...
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。