Redian新闻
>
马斯克官宣 Grok-1.5!超 GPT-4 16 倍上下文,推理能力超 DBRX,网友:赢在敢说!

马斯克官宣 Grok-1.5!超 GPT-4 16 倍上下文,推理能力超 DBRX,网友:赢在敢说!

公众号新闻

作者 | 李忠良、褚杏娟、核子可乐  
引言:还记得 3 月 18 日,马斯克开源 Grok 的那一刻吗?如今,Grok 1.5 即将登场,其卓越的编码与数学处理能力、更深入的上下文理解(可处理高达 12.8 万 Tokens)以及更精准的长文本检索能力,令人震惊。马斯克就是马斯克,这速度,何尝不让人叹服。Grok-1.5 在未来几天即将在 X 上与开发者见面。
Grok-1.5 登场

当地时间 3 月 28 日,马斯克发布了 Grok-1.5,这是一个具有前所未有的长上下文支持和高级推理能力的新型人工智能模型。Grok-1.5,作为该系列的最新版本,预计将在未来几天向早期测试者和 X 平台的现有用户开放。借助于两周前公开的 Grok-1 模型权重和网络架构,该团队展现了至去年 11 月为止的技术成就,并自那以后在推理及问题解决方面取得了显著进展。

能力与推理

Grok-1.5 最显著的改进之一,就是更强大的编码与数学相关任务性能。在团队的实验中,Grok-1.5 在 MATH 基准测试上取得了 50.6% 的得分,在 GSM8k 基准测试上取得了 90% 得分——这两项数学基准测试涵盖从小学到高中的各类竞赛问题。此外,Grok-1.5 在评估代码生成与问题解决能力的 HumanEval 基准测试中得分为 74.1%。

长上下文理解能力

Grok-1.5 中的另一项新功能,就是在上下文窗口中处理多达 128K 个 tokens。这使得 Grok 的记忆容量增加至前代上下文长度的 16 倍,因此能够消化大部头文档中的信息。

此外,Grok-1.5 模型还可处理更长、更复杂的提示词,在上下文窗口扩展的同时保持其指令跟踪能力。在 Needle In A Haystack (NIAH) 评估中,Grok-1.5 展示出强大的检索能力,可以在多达 128K tokens 的长上下文中嵌入文本,实现完美的检索结果,仅从从文本长度来看,Grok-1.5 可真的跨越极其之大,是 GPT-4 的 16 倍。

那么这么强的模型是如何训练的呢?一起来看看 Grok-1.5 的基础设施。

在大规模 GPU 集群上运行领先大语言模型(LLM),自然离不开强大而灵活的基础设施。Grok-1.5 以基于 JAX、Rust 和 Kubernetes 的自定义分布式训练框架为基础,这套训练堆栈使 Grok 团队能够以最小的投入建立起设计原型,并大规模训练新型架构。

在大型计算集群上训练大模型的核心挑战,在于如何最大限度提高训练作业的可靠性与正常运行时间。Grok 团队自定义训练的协调器能够自动检测到有问题的节点,并将其从训练作业中剔除。团队还优化了检查点、数据加载与训练作业重新启动等机制,尽一切可能减少由故障引发的意外停机。

   Grok 1.5 VS “最强”
开源大模型 DBRX

目前,Grok 团队并未表示 Grok-1.5 是否开源,但从马斯克在与 OpenAI 的官司中推测,Grok-1.5 大概率是要开源的,否则有“知行不一”嫌疑。

当前的开源大模型市场竞争也是非常激烈的,Meta、Mistral 等已经处于前沿,但市场变化也非常快。当地时间 3 月 27 日,美国的 AI 创业公司 Databricks 以“黑马”之姿宣布,其 Mosaic Research 团队开发的全新通用大模型 DBRX 将被开源。这一消息由 DBRX 项目的首席神经网络架构师 Jonathan Frankle 在确认测试成果后宣布,他自信地告诉团队:“我们已经超越了市场上所有现有的模型。”一些测试成绩如下图所示:

DBRX 在多项关键测试中的表现亮眼。在语言理解的 MMLU 测试中,DBRX 取得了 73.7% 的得分;而在代码生成能力的 HumanEval 测试中,得分为 70.1%。

此外,DBRX 在数学问题解决能力上的表现也十分出色,在 GSM8k 测试中获得了 66.9% 的成绩,这些结果表明 DBRX 在编程方面的能力甚至超过了专业模型如 CodeLlaMa-70B。

但是,也仅仅就是一天之后, Grok 1.5 宣告发布,想较于“最强”开源大模型 DBRX,Grok 1.5 表现更为亮眼。假使大家测试都不作弊, Grok 在 MMLU 测试中以 81.5% 的得分领先,HumanEval 测试中以 74.1% 的得分胜出,并在 GSM8k 测试中以 90% 的惊人得分远超 DBRX 的 66.9%。另外在长文本上,Grok 1.5 上下文窗口中处理多达 128K 个 tokens,远超于 DBRX 32K。

当然,这只是测试数据集的表现,不能完全说明实际情况,但是,测试集上表现好肯定也是优势。

开发者对 Grok 1.5 的热切期待

对于 Grok-1.5 的突然发布,有网友表示,来自 Grok-1.5 的测试图表给人留下深刻印象。它在信息检索方面,其表现与 Claude-3-Opus 和 GPT-4-Turbo 相媲美。迫不及待想要试一试了。

网友们对 Grok1.5 的热情洋溢在每一条评论中:“太棒了,这真是令人激动的进展!”随着新功能的即将推出,兴奋之情溢于言表。“我们能了解到网页界面发布的时间表吗?我在澳大利亚迫不及待地期待它的到来。”“请不要忘了智利!即使是 Grok 的 1.0 版本,对西班牙语的支持也已经相当出色了!”

也有网友认为,马斯克除非拥有 10 倍的优势,否则也难以在开源大模型的竞争中取胜。

当然,值得注意的是,马斯克曾表示,X 平台将向更多用户开放 Grok 聊天机器人的访问权限,特别是对于那些已经订阅了每月 8 美元高级计划的用户。这一价格,与每月需要 19.99 美元才能使用的 GPT-4 和每月 28.99 美元的 Gemini Advanced 相比,显著更加经济。

另外,从历史上看,X.ai 的 Grok 模型与其他生成式 AI 模型的不同之处在于,它们回答了其他模型通常无法触及的主题问题,例如阴谋和更具争议性的政治思想。更大胆,更自由。

结     语

GPT-4 已经与我们相伴超过一年,而 Gemini 1.5 几个月前亮相,Claude 3 仅数周前登场。昨天发布的开源大模型 DBRX 宣称超越了当前所有大型模型,结果今天就被 Grok 1.5 在一些细分方向超越。究竟哪个模型将在未来占据领先地位?虽然尚未可知,但毫无疑问,我们正处在人工智能发展的黄金时代,我们非常幸运。

参考链接:

https://x.ai/blog/grok-1.5

https://mp.weixin.qq.com/s/eWsCDWquA0r26NodKlu5bA

https://www.databricks.com/blog/introducing-dbrx-new-state-art-open-llm

https://techcrunch.com/2024/03/28/xs-grok-chatbot-will-soon-get-an-upgraded-model-

今日好文推荐

OpenAI 宣布:给开发者分钱!“飞书”裁员 20%,波及上千人;小扎亲自招人:无需面试即录用,年薪 1400 万 | Q资讯

比 Python 快 9 万倍的 Mojo 终于开源了!刚上线 star 已超过 1.7 万

开源 Redis 的生命将就此终结?Redis 之父回应分叉浪潮:未来谁能领先,各凭本事!

Transformer 框架论文作者:AI行业被困在了六七年前的原型上

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
马斯克烧几十亿美元造最大超算中心,10万块H100训练Grok追赶GPT-4o首个开源世界模型!百万级上下文,长视频理解吊打GPT-4,UC伯克利华人一作革命新架构掀翻Transformer!无限上下文处理,2万亿token碾压Llama 2GPT-4劲敌Claude 3来了,上下文和多模态显著提升:OpenAI是可被超越的马斯克发布Grok 1.5! 编码和数学能力大幅提升32K上下文,Mistral 7B v0.2 基模型突然开源了44、长篇家庭伦理小说《嫁接》第十一章 惺惺相惜(1)陶哲轩看了都直呼内行!谷歌等用LLM自动证明定理拿顶会杰出论文,上下文越全证得越好牛皮吹破?大模型长输入能力不能拿来做上下文学习美股基本面 - 2024_01_31 * 晨报 * 2023年星巴克把更多新店开到了县城。矿业巨头淡水河谷去年铁矿石产量3.2马斯克大模型Grok1.5来了:推理能力大升级,支持128k上下文AI鲜测 | Claude 3全面升级:多模态+100万Token上下文长度,OpenAI也拦不住了难搞!BrooksBrothers布克兄弟,美国总统喜欢的牌子,难得有折扣马斯克官宣Grok-1.5!超GPT-4 16倍上下文,推理能力超DBRX,网友:赢在敢说!中文创意写作能力超GPT-4,「最会写」的中文大模型Weaver来了OpenAI神秘搞事,GPT-4.5默默上线?推理碾压GPT-4网友震惊,奥特曼笑而不语GPT马斯克突发Grok 1.5!上下文长度至128k、HumanEval得分超GPT-4长城汽车魏建军:小米发布会名不虚传;马斯克称供应链管理被低估:赢得战斗的是战术,赢得战争的是供应链丨智能制造日报LongRoPE:超越极限,将大模型上下文窗口扩展超过200万tokens聊几句中国的人文科学月之暗面 Kimi 智能助手实现 200 万字长上下文,火山引擎提供云服务支持雨中的road to hana伤你最深的人往往是你生命中最爱的人Databricks开源大模型DBRX,以及这对Databricks公司的商业,估值,上市等方面的影响。。。刚刚,马斯克突然发布 Grok 1.5 大模型,但除了这点都不如 GPT-4谷歌7大模型22项AI大招轰炸:70秒视频生成、Gemini安卓合体、200万tokens上下文华为悬红200万全球求解难题引热议,网友:虽然不会,但是感觉自己亏了;马斯克的超级算力愿景:xAI将建计算超级工厂训练Grok开源11天,马斯克再发Grok-1.5!128K代码击败GPT-4GPT-4推理能力暴涨32%,谷歌新型思维链效果超CoT,计算成本可降至1/40Meta等发布巨齿鲨Megalodon!无限上下文长度的高效大模型预训练和推理多忽悠几次AI全招了!Anthropic警告:长上下文成越狱突破口,GPT羊驼Claude无一幸免58行代码把Llama 3扩展到100万上下文,任何微调版都适用OpenAI有望在今年夏季推出GPT-5;英伟达推出更强GPU芯片;马斯克宣布正式开源Grok-1|AIGC周观察第三十七期百万token上下文窗口也杀不死向量数据库?CPU笑了微软拟与OpenAI投资1000亿美元建AI超算;Databricks 推出1320亿参数大语言模型 DBRX丨AIGC日报
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。