Redian新闻
>
马斯克大模型Grok1.5来了:推理能力大升级,支持128k上下文

马斯克大模型Grok1.5来了:推理能力大升级,支持128k上下文

科技
机器之心报道
编辑:泽南

马斯克搞大模型,速度也奇快。

Grok 1 开源才刚有 10 天,Grok 1.5 就来了。


本周五早上,马斯克旗下的人工智能公司 xAI 正式推出了 Gork 大模型的最新版本 Grok-1.5。新一代模型实现了长上下文理解和高级推理能力,计划将在未来几天内向早期测试人员和 X 平台(前 Twitter)上的现有 Grok 用户提供。


上周一,马斯克刚刚开源了 3140 亿参数的混合专家(MoE)模型 Grok-1。通过开源 Grok-1 的模型权重和网络架构,Gork 项目已展示了 xAI 截至去年 11 月所取得的进展。在最新模型 Grok-1.5 中,Gork 又有了进一步提高。


能力与推理


Grok-1.5 最明显的改进之一是其在代码和数学相关任务中的性能。在 xAI 的测试中,Grok-1.5 在 MATH 基准上取得了 50.6% 的成绩,在 GSM8K 基准上取得了 90% 的成绩,这两个数学基准涵盖了广泛的小学到高中的竞赛问题。


此外,它在评估代码生成和解决问题能力的 HumanEval 基准测试中得分为 74.1%。



还记得昨天 Databricks 开源的通用大模型 DBRX 吗?当时的对比图表如下所示,看起来新版本 Grok 的提升是显著的。



就是不知这个大幅升级的 1.5 版会在什么时候开源?


长上下文理解


Grok-1.5 中的另一个重要升级是在其上下文窗口内可以处理多达 128K token 的长上下文。这使得 Grok 的容量增加到之前上下文长度的 16 倍,从而能够利用更长文档中的信息。



此外,该模型可以处理更长、更复杂的提示(prompt),同时在上下文窗口扩展时仍然能保持其指令跟踪能力。在大海捞针(NIAH)评估中,Grok-1.5 展示了强大的检索能力,可以在长度高达 128K token 的上下文中嵌入文本,实现完美的检索结果。


训练 Grok-1.5 的基础设施


xAI 进一步介绍了用于训练模型的算力设施。在大规模 GPU 集群上运行的先进大型语言模型(LLM)研究需要强大而灵活的基础设施。Grok-1.5 构建在基于 JAX、Rust 和 Kubernetes 的自定义分布式训练框架之上。该训练堆栈允许开发团队能够以最小的精力构建想法原型并大规模训练新架构。


在大型计算集群上训练 LLM 的主要挑战是最大限度提高训练作业的可靠性和正常运行时间。xAI 提出的自定义训练协调器可确保自动检测到有问题的节点,并将其从训练作业中剔除。工程师还优化了检查点、数据加载和训练作业重新启动等问题,以最大限度地减少发生故障时的停机时间。


展望


为了寻求替代微软支持的 OpenAI 和 Google 大模型的解决方案,马斯克去年推推动了 AI 创业公司 xAI,以创建他所说的「最大程度寻求真相的人工智能」 。去年 12 月,这家初创公司为 X 的 Premium+ 订阅者推出了 Grok。



xAI 表示,Grok-1.5 很快就会向早期测试者开放,其团队将继续改进 Grok。随着新版本推向公众,在未来几天 X 上的大模型将陆续推出一些新功能。


参考内容:

https://x.ai/blog/grok-1.5

https://www.reuters.com/technology/musks-xai-launch-improved-version-chatbot-2024-03-29/




© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
马斯克发布Grok 1.5! 编码和数学能力大幅提升马斯克发布全球最大开源模型Grok-1定西马斯克宣布正式开源大语言模型Grok;人体避免多个精子使一个卵子受精的机制揭示 | 环球科学要闻马斯克打脸OpenAI,全球最大巨无霸模型Grok-1开源!3140亿参数8个MoE,GitHub狂揽6k星一次性支持 200 万字无损上下文!Kimi智能助手玩了个大的——月之暗面「登月」最新进展!月之暗面 Kimi 智能助手实现 200 万字长上下文,火山引擎提供云服务支持模型上下文长度达到10000000,又一批创业者完蛋了?AI鲜测 | Claude 3全面升级:多模态+100万Token上下文长度,OpenAI也拦不住了元象首个多模态大模型 XVERSE-V 开源,刷新权威大模型榜单,支持任意宽高比输入开源11天,马斯克再发Grok-1.5!128K代码击败GPT-4百万token上下文窗口也杀不死向量数据库?CPU笑了GPT-4推理能力暴涨32%,谷歌新型思维链效果超CoT,计算成本可降至1/40P70系列有3或4款新品;国内首个开源千亿参数MoE大模型来了,对标马斯克的Grok……马斯克突发Grok 1.5!上下文长度至128k、HumanEval得分超GPT-4黄仁勋扔出的算力核弹​是堆叠吗?马斯克开源的大模型Grok才是全球最大吗?马斯克官宣Grok-1.5!超GPT-4 16倍上下文,推理能力超DBRX,网友:赢在敢说!无注意力大模型Eagle7B:基于RWKV,推理成本降低10-100 倍马斯克正式开源 Grok-1,成为全球最大的开源大模型【长篇小说】县委副书记(026)32K上下文,Mistral 7B v0.2 基模型突然开源了CVPR 2024 | E2STR:基于多模态上下文学习构建的自进化文本识别模型AI早知道|马斯克Grok大模型开源;荣耀正式发布首款AI PC;苹果谷歌和OpenAI商谈iPhone大模型使用马斯克官宣 Grok-1.5!超 GPT-4 16 倍上下文,推理能力超 DBRX,网友:赢在敢说!过紧日子;掼蛋扑克;特斯拉赛博电动皮卡;燃油宝不是宝聊一下关于孩子上大学和挣大钱的事情Mamba超强进化体一举颠覆Transformer!单张A100跑140K上下文LongRoPE:超越极限,将大模型上下文窗口扩展超过200万tokens许家印组织造假被罚4700万;马斯克开源大模型Grok-1;侯毅正式卸任盒马CEO;英伟达推出最强AI芯片...首个开源世界模型!百万级上下文,长视频理解吊打GPT-4,UC伯克利华人一作刚刚,马斯克突然发布 Grok 1.5 大模型,但除了这点都不如 GPT-4革命新架构掀翻Transformer!无限上下文处理,2万亿token碾压Llama 2GPT-4级模型Grok开源可商用!卷底层大模型的公司危了美股又创新高了,你还在观望吗?性能超越 GPT-4 Turbo!「商汤日日新」大升级,国产大模型超市开张了
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。