Redian新闻
>
11人狂训2个月,马斯克精准狙击OpenAI!xAI首个大模型Grok炸场,330亿参数每月16刀

11人狂训2个月,马斯克精准狙击OpenAI!xAI首个大模型Grok炸场,330亿参数每月16刀

公众号新闻



  新智元报道  

编辑:编辑部
【新智元导读】OpenAI开发者大会前夕,马斯克来截胡了!xAI首个产品Grok炸裂发布,两个月训出330亿参数大模型,以《银河系漫游指南》为蓝本,还有一股子马斯克式幽默。

最近几天,各家都是箭在弦上,磨刀霍霍。

OpenAI开发者大会在即,马斯克忽然拦路狙击,提前放出xAI的第一个产品Grok!

Grok的一大亮点,就是能从推特实时获取信息。优质数据已成全球的稀缺资源,马斯克去年豪掷440亿美元收购推特后搞得鸡飞狗跳大半年,原来是等在这儿呢。

Grok深深体现出马斯克一直推崇的xAI公司的宗旨——一个探求「最大真理」和「宇宙本质」的AI,一个公正的AI。

就在昨天,xAI的一位创始成员Toby Pohlen放出了Grok的UI界面——

Grok可以同时进行多任务处理,并排运行多个会话,还可以在多对话之间随意切换。

期间,我们可以对对话进行分支,来更好地探索Grok的回复。
回复树可以让我们在各个分支之间来回切换。还有一些/commands命令可以让我们减少点击次数。
我们可以在Markdown编辑器中打开Grok的回复,保存后继续对话。它可以和分支以及分支树协同工作。
同时,我们也可以在VS Code编辑器中,打开所有生成的代码片段。
另外,跟自己的幽默人设呼应的是,点击Grok图标上彩蛋,就可以把Grok转换为幽默模式了。

对此,另一位创始人Greg Yang表示:毫无疑问,这是我用过最好的聊天用户界面。

现在,由于候补名单的申请太过火爆,Grok的服务器直接宕机了。
6个月前刚签联名信:暂停超强AI研究6个月


有趣的是,马斯克此前也是「AI末日论」的强力拥趸,曾和Bengio、苹果联合创始人Steve Wozniak、Stability AI CEO、马库斯等人签署了一封要求暂停发展比GPT-4更先进AI 6个月的公开信。

而眼下,AI大佬们正热火朝天地激辩着AI监管必要性的议题,马斯克却已经在这当口悄悄训练出Grok了,甚至还赶在OpenAI开发者大会前夕放出大招。

看来,大家都是心照不宣啊。

当然,马斯克总能找到办法自圆其说,xAI的官博这样解释道——

我们相信,AI智能具有巨大的潜力,可以为社会贡献重要的科学和经济价值,因此我们将努力制定可靠的保障措施,防止灾难性的恶意使用。我们会尽最大努力,确保AI始终是一股向善的力量。

甚至,马斯克还放出这样的豪言——未来特斯拉的算力,都会用于大模型的推理。即使有机器人驾驶出租车,汽车依然每周只会运行1/3时间,其余时间的算力,都会用来做SETI之类的分布式推理运算。

这样,特斯拉将拥有地球上最多的模型推理算力!

马斯克,果然在下一盘大棋。

330亿参数,8K上下文,Grok-1碾压ChatGPT


仅仅四个月,Grok就经过多次迭代横空出世。创始人团队的效率高得惊人。
创始人之一Greg Yang感慨道:「当一小群积极进取的世界级人才朝着同一个方向前进,挥出的拳头就远远超出了自身的重量。只有天空,只有宇宙,才是我们的极限!让我们从每一瓦的电量中,让计算得到最大优化!」

Grok意为「凭直觉深刻了解」,是美国科幻作家罗伯特·海因莱因在1961年出版的科幻小说《异乡异客》中创造的词汇。

xAI对于Grok的官方介绍是这样的——

Grok是一个以《银河系漫游指南》为蓝本的 AI,因此几乎可以回答任何事情,甚至还能建议我们该问什么问题。 

Grok回答问题时,会不时抖个机灵,甚至比较叛逆,不喜欢幽默的人请远离。 

Grok的独特优势就在于,它可以通过X平台(也即推特)实时了解世界上发生的各种事情。而且,很多AI会拒绝的敏感问题,它都不会拒绝。 

现在,Grok还是一个早期的测试版产品,这已经是2个月的训练后能达到的最好程度了。因此,xAI希望能在用户的帮助下,让它每周都能迅速改进。

语调阴阳怪气,几句一爆梗,Grok确实是有点子幽默在身上的。

哦,我亲爱的人类,我有好消息要告诉你!我们的朋友Sam Bankman-Fried被认定所有罪名成立。你能相信吗?陪审团只用了8个小时就弄清了所谓的世界上最聪明、最优秀的风险投资人多年来都无法弄清的事实:他犯下了普通的欺诈罪。这真是一次疯狂的旅程,不是吗?

2个月,训练出Grok-1

Grok背后的核心引擎便是Grok-1。
这是用时4个月研发的大模型,并经过了多次迭代升级。
据了解,Grok训练时间仅仅2个月。
在宣布xAI成立之后,研究团队最先训练了一个330亿参数的原型大模型——Grok-0。
早期模型Grok-0在标准的LM基准测试中,性能与LLaMA 2(70B)接近,但只使用了一半的训练资源。
过去的2个月中,xAI大模型在推理和编码方面取得了重大改进,并迭代到了Grok-1。
同样,Grok-1是一个基于Transformer的自回归模型,在Grok-0模型基础上进行了微调,上下文长度为8192。
训练数据来自互联网(截止到2023年第三季度),以及AI导师提供的数据。
能力大幅提升的Grok-1刷新了多项SOTA,在HumanEval编码任务中达到了63.2%,在MMLU上达到73%。
如下是xAI研究团队对Grok-1在衡量数学和推理能力的标准机器学习基准进行了一系列评估。
- GSM8k:中学数学单词问题,使用思维链提示。
- MMLU:多学科多项选择题,提供了5次上下文示例。
- HumanEval:Python代码完成任务,pass@1评估为零样本。
- MATH:用LaTeX编写的初中和高中数学问题,用固定的4次示例作为提示。
在这些基准测试中,Grok-1展现出强大的能力,超越了ChatGPT-3.5、Inflection-1等模型。
实际上,只有像GPT-4这样使用大量训练数据和计算资源进行训练的模型,才能超越Grok-1。
这展现了研究人员在xAI项目中以异常高效的方式,训练LLM方面正在取得的快速进步。
另外,刚刚提到的数学基准测试,模型可能通过网络访问到,所以结果可能受到影响。
为了更公平地评估,研究人员手动收集了「2023年匈牙利全国高中数学期末考试」数据集,以测试Grok-1、 Claude-2和GPT-4的能力。
结果发现,Grok以C(59%) 通过了考试,而 Claude-2 获得了相同的成绩C (55%),GPT-4 以 68% 的成绩获得了B。
所有模型均在温度为0.1和相同提示下进行评估。必须指出的是,研究人员没有为这次评估做出任何调整。
这样,可以更好地反映模型在真实情况下的能力,评估模型在没经过调优的新数据上的泛化能力。
如下,研究人员在模型卡中提供了Grok-1重要技术细节的摘要。
就局限性来看,Grok-1不具备独立搜索网络的能力。在Grok中部署时,搜索工具和数据库增强了模型的功能和真实性。尽管可以访问外部信息源,但模型仍会产生幻觉。

xAI工程设计:不是Python,是Rust


在深度学习研究的前沿,可靠的基础设施和数据集、学习算法一样重要。
为了创建Grok,xAI构建了一个基于Kubernetes、Rust和JAX的自定义训练和推理堆栈。
大语言模型的训练就像一列全速前进的货运火车,如果一节车厢脱轨,整列火车都会被拖下轨道,很难再次纠正方向。
GPU可能失败的方式有很多种:制造缺陷、连接松动、配置错误、内存芯片退化、偶尔的随机位翻转等等。
在训练时,xAI连续数月在数以万计的GPU之间同步计算,由于规模庞大,这些故障频繁出现。
为了克服这些挑战,他们便采用了一套定制的「分布式系统」,确保立即识别并自动处理每种类型的故障。
在xAI,研究人员把最大化每瓦特计算效率作为工作重点。
在过去的几个月里,基础设施使团队最小化了停机时间,即使硬件不可靠,也能保持较高的模型计算利用率 (MFU)。
当前,Rust已被证明是,构建可扩展、可靠、可维护的基础设施的理想选择。它提供了高性能、丰富的生态系统,并预防分布式系统中的大多数错误。
对于像xAI这样规模较小的团队来说,基础设施的可靠性至关重要,否则维护会影响创新。
Rust可以让代码修改和重构更加可靠,编写的程序可以在少量监管下稳定运行数月。
xAI团队表示,「我们正在为模型能力的下一次飞跃做准备,这将需要可靠地协调数以万计的加速器上的训练运行,需要运行互联网规模的数据pipeline,并在Grok中构建新的功能和工具。
在这里,xAI为自己团队招募做了一波宣传。
就技术要求这一栏,需要程序员们能够具备能力包括:
Rust
因为xAI所有的后端服务和所有数据处理都是在Rust中实现的。而且团队还是Rust语言的忠实拥护者,并相信它是高效、安全和可扩展应用程序的最佳选择。它还提供了与Python的轻松互操作性。
JAX和XLA
xAI模型的神经网络是在JAX中实现的,并且xAI有许多自定义XLA操作来提高它们的效率。
Triton和CUDA
为了充分利用计算资源,大规模运行大型神经网络,同时最大限度地提高计算效率至关重要。因此,xAI定期在Triton或原始C++ CUDA中编写定制内核。
TypeScript, React & Angular
xAI前端代码完全是使用React或Angular在TypeScript中编写的,后端通信通过gRPC-web API实现类型安全。
对于这个招聘要求,业内人士总结道——
具有高MFU的单GPU,是高生产力的人;具有高MFU的单节点,是高效的小团队;具有高MFU的数千个GPU集群,是高生产率的公司。
现在,扩展有用产出/人的难度,从一个人增加到100K,而xAI正在寻找的,是10倍的工程师......

xAI的研究方向


虽然Grok可以访问搜索工具和实时信息,但跟所有LLM一样,Grok仍然无法避免大模型的通病——幻觉问题。
xAI认为,解决当前系统局限性最重要的方向,就是实现可靠的推理。
在xAI看来,以下是几个最有前途的研究方向——
通过工具辅助实现可扩展的监督
可能Grok还很难提供一致且准确的反馈,尤其是处理长代码或复杂推理时。
这种情况下,可以让AI通过查找不同来源的参考资料、使用外部工具验证中间步骤、寻求人类反馈等,来协助进行可扩展的监督。
集成形式验证,确保安全性、可靠性和接地
xAI计划更准确、更可验证的情况下发展AI的推理技能。这样就能在没有人类反馈或现实世界交互的情况下,评估系统。
采用这种方法最直接的目标,就是保证代码的准确性,特别是在形式上验证AI的安全性。
长上下文理解和检索
一个能在特定环境中有效地发现有用知识的模型,是产生真正智能系统的核心。xAI正在致力于研究如何让AI在需要时去发现和检索信息。
对抗性鲁棒性
许多示例表明,无论是训练期间还是使用期间,AI系统中的漏洞都会导致它们犯严重的错误。而这些漏洞,就是深度学习模型长期存在的弱点。
xAI致力于提高LLM、奖励模型和监控系统的鲁棒性。
多模态功能
目前Grok还没有配备视觉和听觉功能,xAI会致力于发展它的多模态功能,实现更广泛的应用。
参考资料:
https://x.ai/




微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
全球最强CPU一夜易主,130亿参数大模型被塞进PC,没网也能生成邮件周报PPT李开复发布零一万物首款340亿参数大模型Yi;摩尔线程设立AISG和MCSG战略部门丨AIGC日报中文最强开源大模型来了!130亿参数,0门槛商用,来自昆仑万维OpenAI史诗级更新!最强大模型炸场,128K上下文、价格暴降2/3,还能定制专属GPTOpenAI忙着“宫斗”,手握2.2万块H100的竞争对手趁机发布新款大模型:1750亿参数,性能仅次于GPT-4李开复旗下340亿参数开源大模型被指“套壳LLaMA”,最新回应来了!1800亿参数,世界顶级开源大模型Falcon官宣!碾压LLaMA 2,性能直逼GPT-4《军营飞来一只白灵》&《我想我是海》马斯克首个AI工具Grok命名有何深意?ChatGPT给出完美解答;OpenHarmony 4.0版本正式发布丨AIGC日报第三章第三节 欧洲中国不同的社会演变AMD王宏强:700亿参数大模型单个GPU部署,做好AI软件和生态实现“开箱即用”丨GACS 2023GPT-4版微软Win11下周二见;千亿参数生物医药大模型面世;DALL·E 3模型将接入Bing丨AIGC大事日报首款生成式AI移动芯片天玑9300:能跑330亿参数大模型英伟达英特尔推改良版芯片重回中国市场?产业链人士称属实;阿里巴巴CEO吴泳铭:即将开源国内最大的720亿参数大模型丨AIGC日报1800亿参数,性能碾压Llama 2,世界最强开源大模型Falcon 180B发布图文并茂,三步速出「原神」文稿!首个70亿参数图文混合创作大模型正式开源,一键生成神作6002 血壮山河之随枣会战 “和平运动 ”2OpenAI首届开发者大会内容曝光;马斯克xAI大模型进展公布;中国第二批大模型备案获批丨AIGC大事日报720亿参数大模型都拿来开源了!通义千问开源全家桶,最小18亿模型端侧都能跑有钱的加拿大人马斯克xAI公布大模型详细进展,Grok只训练了2个月AI早知道|微软Copilot将可免费使用GPT-4Turbo; 国产670亿参数大模型DeepSeek亮相免费大模型实战课|首周聚焦百度智能云千帆大模型平台使用,《大模型应用实践》实训营11月16日开讲!8张3090,1天压缩万亿参数大模型!3.2TB骤降至160GB,压缩率高达20倍冷却的不止季节(106)— 提醒李开复零一万物发布首款大模型;马斯克xAI发布首个大模型;360、美团、昆仑万维等最新消息;vivo发布蓝心AI大模型国产大模型开源一哥再登场,最强双语LLM「全家桶」级开源!340亿参数超越Llama2-70B目标:燃烧 23333333 大卡!🤜🤛高通甩出最强芯片三件套!手机跑100亿参数大模型,PC芯片逆袭苹果英特尔英伟达将为中国开发改款合规芯片;马斯克AI模型Grok下周定向开放;拼多多成立大模型团队丨AIGC大事日报打通大模型训练任督二脉!国内首个千亿参数、全面开源大模型来了,还联手开发者共训正面硬刚GPT-4V!浙大校友开源多模态大模型LLaVA-1.5,130亿参数8个A100一天训完从「最强2D」升维「最强3D」!智源联合清北重磅发布10亿参数Uni3D视觉大模型OpenAI 忙着“宫斗”,手握 2.2 万块 H100 的竞争对手趁机发布新款大模型:1750 亿参数,性能仅次于 GPT-4昆仑万维开源130亿参数大模型!0门槛商用、多榜超Llama 2,预训练数据也开源
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。