Redian新闻
>
李开复说话算数:零一万物大模型首次发布,AI 2.0 正在路上

李开复说话算数:零一万物大模型首次发布,AI 2.0 正在路上

科技
零一万物大模型成果首次发布。

作者 | 王悦

编辑 | 陈彩娴

11月6日,李开复带队创办的 AI 2.0 公司零一万物,开源发布了Yi系列模型,包含 34B 和 6B 两个版本。

令人惊艳的是,从参数量和性能上来看,Yi-34B 相当于只用了不及 LLaMA2-70B一半、Falcon-180B五分之一的参数量,碾压 了LLaMA2-70B 和 Falcon-180B 等众多大尺寸模型。凭借这一表现,跻身目前世界范围内开源最强基础模型之列。

根据 Hugging Face 英文开源社区平台和 C-Eval 中文评测的最新榜单,Yi-34B 预训练模取得了多项 SOTA 国际最佳性能指标认可,成为全球开源大模型「双料冠军」。这也是迄今为止唯一成功登顶 Hugging Face 全球开源模型排行榜的国产模型。

Hugging Face Open LLM Leaderboard (pretrained) 大模型排行榜(2023年11月5日)

AI 科技评论获悉,「Yi 」系列大模型,命名来自「一」的拼音。「Yi 」中的「Y」上下颠倒,巧妙形同汉字的「人」,结合 AI 里的 i ,代表Human + AI ,强调以人为本的精神,为人类创造巨大的价值。

零一万物创始人及CEO李开复博士表示:「零一万物坚定进军全球第一梯队目标,从招的第一个人,写的第一行kl代码,设计的第一个模型开始,就一直抱着成为‘World's No.1’的初衷和决心。」

从「AI 1.0」迈向「AI 2.0」,李开复说话算数,一步步向目前迈进。



1

零一万物大模型 Yi 首次曝光

作为国产大模型, Yi-34B 不得不说的的优势之一就是更「懂」中文。对比大模型标杆GPT-4,在CMMLU、E-Eval、Gaokao 三个主要的中文指标上,Yi-34B 也具有绝对优势,能够更好地适配国内市场需求

从更为全面的评估看,在全球大模型各项评测中最关键的 「MMLU」(Massive Multitask Language Understanding 大规模多任务语言理解)、BBH等反映模型综合能力的评测集上,Yi-34B 同样表现突出,在通用能力、知识推理、阅读理解等多项指标评比中全部胜出,与 Hugging Face 评测高度一致。

各评测集得分:Yi 模型 v.s. 其他开源模型

在语言模型中,上下文窗口是大模型综合运算能力的关键指标之一,对于理解和生成与特定上下文相关的文本至关重要,拥有更长窗口的语言模型可以处理更丰富的知识库信息,生成更连贯、准确的文本。

此次开源的 Yi-34B 模型,将发布全球最长、可支持 200K 超长上下文窗口(context window)版本,可以处理约40万汉字超长文本输入。理解超过 1000 页的 PDF 文档,让很多依赖于向量数据库构建外部知识库的场景,都可以用上下文窗口来进行替代。

相比之下,OpenAI 的 GPT-4 上下文窗口只有 32K,文字处理量约 2.5 万字。今年三月,硅谷知名 AI 2.0 创业公司Anthropic 的 Claude2-100K 将上下文窗口扩展到了 100K 规模,零一万物直接加倍,并且是第一家将超长上下文窗口在开源社区开放的大模型公司。

上下文窗口规模扩充从计算、内存和通信的角度存在各种挑战,零一万物能做到这个程度也并非一蹴而就。受限于计算复杂度、数据完备度等问题,大多数发布的大型语言模型仅支持几千 tokens 的上下文长度。

为了解决这个限制,零一万物技术团队实施了一系列优化,包括:计算通信重叠、序列并行、通信压缩等。通过这些能力增强,实现了在大规模模型训练中近 100 倍的能力提升。

其实,Yi 系列模型之所以能取得如此亮眼的成绩,背后的 AI Infra 是功不可没的,其通过「高精度」系统、弹性训和接力训等全栈式解决方案,确保训练高效、安全地进行。

凭借强大的 AI Infra 支撑,零一万物团队能实现超越行业水平的训练效果,Yi-34B 模型训练成本实测下降40%,实际训练完成达标时间与预测的时间误差不到一小时,进一步模拟上到千亿规模训练成本可下降多达 50%。

截至目前,零一万物 Infra 能力实现故障预测准确率超过90%,故障提前发现率达到 99.9%,不需要人工参与的故障自愈率超过 95%,

无论是人前耀眼的成绩还是背后基础能力的攻坚,也都离不开零一万物潜心数月练就的大模型 「科学训模」方法论。

大模型效果依赖于更多、更高质量的数据,零一万物在数据处理管线上可谓「不惜成本」。

数据处理管线和加大规模预测的训练能力建设,把以往的大模型训练碰运气的「炼丹」过程变得极度细致和科学化,不仅保证了目前发布 Yi-34B、Yi-6B 模型的高性能,也为未来更大规模模型的训练压缩了时间和成本,

经过几个月大量的建模和实验,零一万物自研出一套「规模化训练实验平台」,用来指导模型的设计和优化。数据配比、超参搜索、模型结构实验都可以在小规模实验平台上进行,对 34B 模型每个节点的预测误差都可以控制在0.5%以内。

在 Yi 开源模型的全球首发日,零一万物 CEO 李开复也宣布,在完成 Yi-34B 预训练的同时,已经旋即启动下一个千亿参数模型的训练。「零一万物的数据处理管线、算法研究、实验平台、GPU 资源和 AI Infra 都已经准备好,我们的动作会越来越快」。



2

从「AI 1.0」到「AI 2.0」

零一万物的首次成果公布,体现的不仅是技术的进步,还有商业的可能性。

今年 3 月,李开复作了一场关于 AI 从 1.0 时代跨到 2.0 时代的演讲。随后,零一万物在李开复所设想的 AI 2.0 框架下成立,招揽了前百度安全副总裁马杰、前微软副总裁祁瑞峰等等技术大咖,阵容豪华,引起业内的广泛关注。

过去十年,深度学习催生了一批优秀的 AI 公司,随后经过多年的发展,在过去两年曾进入短暂的低谷期,一度传出 AI 泡沫、AI 寒冬的说法。其中的根源就在于:上一代 AI 公司尽管基于崭新的技术立足,但在商业化上的步伐却比预期慢。

而从去年 8 月 Stable Diffusion 掀起 AIGC 热潮以来,加上去年11月底 ChatGPT 发布,全球 AI 突然看到了新的机会。这个新的机遇,被李开复称为「AI 2.0」。

ChatGPT 之后,AI 时代的进步在技术上体现为通用人工智能(AGI)雏形初显,在商业应用上则被李开复形容为平台级的趋势爆发。

所谓「平台」,包含一个大的目标,即要大幅降低开发 AI 应用的成本。如同电与电网的区别,电是一项伟大的发明,但如果没有电网,就不会出现微波炉、电烤箱、电动车等新的发明。换言之,AI 2.0 之于 AI 1.0 的区别,就在于将 AI 技术变成平台,将定制变成通用,将点变成面。

过去十年的商业实践验证了 AI 1.0 时代的瓶颈。在 AI 1.0 时代,数据越多、结果越好,但同时也因为需要大量的标注数据,成本巨大。此外,AI 1.0 时代的应用在各个领域是相互割裂的,诞生了一连串的「孤岛应用」,无法形成有效的平台。

但 AI 2.0 时代的技术基石是自监督,可以让 AI 模型不进行数据标注也能学习。虽然同样需要将大量的、跨领域的数据拿来学习,但学习后形成一个基础模型(即大模型)后再去做知识的迁移,AI 即相当于一个世界模型。经过多年的训练与积累,基础模型更成熟,基于基础模型再做平台应用,即可打破 AI 应用的孤岛现象,边际效益与日俱增。

换言之,AI 2.0 时代有三大优势:一是减少人工标注;二是模型规模大,具备世界知识;三是能够以极低的成本对基础模型进行微调训练,即可适应不同领域的任务。所以,在 AI 2.0 时代,每个领域都有机会将原有的应用重构一遍,用更短的时间生产出更高质量的数字内容,而且千人千面、精准优化信息流,做出更伟大的商业模式。

一方面,降低训练成本是减少 AI 应用开发成本、催生一系列爆款应用的前提;另一方面,长文本处理是商业应用的一道拦路虎。如果长文本处理的技术瓶颈能突破,许多更高难度的应用也会被一一破解,如处理超长篇幅的法务合同、交叉对比多篇学术论文、基于长篇剧本进行角色扮演、通过多篇财报进行市场分析等等。

因此,「长文本处理」在下半年成为大模型赛道的兵家必争之地。从 Anthropic AI 对 OpenAI 发起挑战后,国内多家大模型厂商也陆续推出长文本处理里程碑。如月之暗面的 Kimi Chat 支持 20 万字输入,百川智能的 Baichuan2-192k 支持 35 万字输入,零一万物的 Yi-34B 迅速扩展到 40 万字。

此次零一万物团队开源大模型 Yi-34B 与 Yi-6B,在长文本领域可以做到最长 200k 上下文窗口、40 万字的文本处理,也与李开复此前谈的 AI 2.0 思想相一致。同时,据零一万物介绍,他们还依托基础的计算设施与算法优化等 Infra 能力,将训练成本下降了 40%。

上传到 Hugging Face 不过两天后,Yi-34B 的下载量就超过了 1000 次,获得了接近 150 个点赞。

长文本处理的技术突破,不仅是表面上关于 Token 数的数据变更,更重要的是其体现了人工智能领域整体对 AI 2.0 时代所蕴含的商业潜力的认同与乐观。正是因为对大模型为代表的新一代 AI 技术的信心,才有如此多优秀的技术人才涌入该赛道,在极短的时间内快速突破了长文本等技术问题的局限。

据 AI 科技评论了解,如今长文本处理已逐渐被热情的 AI 技术人才攻破,目前业内流行的技术方法包括:最简单粗暴的堆显存,或滑动窗口、降采样等,或在 Attention-mask 中做动态内插。这些方法的效果很好,缺点是计算开销大。但在各大云计算厂商的加持下,算力壁垒也被逐渐打了下来。

可以看见,AI 进入一个新的时代毫无疑问已是行业共识。AI 2.0 代表一个新的商业愿景,道阻路长,玩家众多,但后来者零一万物也已成为其中最有潜力的团队之一,期待零一万物接下来的表现。

OpenAI 首届开发者大会召开在即,AI 科技评论持续关注,欢迎同样关注的朋友添加作者微信 s1060788086 一起交流。

更多内容,点击下方关注:

未经「AI科技评论」授权,严禁以任何方式在网页、论坛、社区进行转载!


公众号转载请先在「AI科技评论」后台留言取得授权,转载时需标注来源并插入本公众号名片。

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
OpenAI调查ChatGPT错误率升高问题;零一万物上线Yi微调模型;Adobe收购印度AI视频创企丨AIGC大事日报李开复4个多月后“放大招”:对标 OpenAI、谷歌,发布“全球最强”开源大模型李开复发布零一万物首款340亿参数大模型Yi;摩尔线程设立AISG和MCSG战略部门丨AIGC日报《时代》周刊首次发布全球 AI 百大人物,李彦宏、李开复等人上榜重读'2024年拜登可以骄傲地退休'AI早知道|抖音即创平台上线;零一万物发布并开源Yi微调模型;亚马逊宣布推出全新一代语音基础模型驱动的ASR系统Stanford Exp: Think out of the box creative, non-linear, asymmet李开复零一万物发布首款大模型;马斯克xAI发布首个大模型;360、美团、昆仑万维等最新消息;vivo发布蓝心AI大模型无耻!!!阿里前副总裁贾扬清揭发--李开复公司的开源大模型,套壳Meta的LLaMA却故意不说。。。别再声讨零一万物了低调发育 8 个月后,李开复和他的大模型团队首次亮相OpenAI开启“GPT Store”时刻;李开复官宣「全球最强」开源大模型;阿里百度华为三星等最新消息OpenAI探索将ChatGPT引入课堂;李开复回应大模型架构争议|AIGC周观察第二十五期直追GPT-4!李开复Yi-34B新成绩公布:94.08%的胜率超越LLaMA2等主流大模型理想汽车发布史上最大更新:多模态大模型首次上车,无人泊车即将推送ChatGPT Plus暂停新订阅;零一万物发布Yi-34B训练过程说明;面壁智能发布AI智能体SaaS产品丨AIGC大事日报李开复官宣「全球最强」开源大模型:一次处理40万汉字、中英均霸榜苹果正开发自研高性能电池 / OpenAI 推出自定义版 ChatGPT / 李开复 AI 公司首发大模型“虎妈”蔡美儿咸鱼翻生,又成道德楷模当着黄仁勋的面,微软一口气发布两款自研芯片,英伟达止步十连涨;滴滴杀入大模型,聚焦ToB商旅;零一万物回应架构争议丨AI周报在图像、视频生成上,语言模型首次击败扩散模型,tokenizer是关键零一万物 Yi 大模型最新评测,英语能力仅次于 GPT-4最强开源大模型刚刚易主!李开复率队问鼎全球多项榜单,40万文本处理破纪录李开复被大模型绊了一跤厉害了,我的国!外星人都知道杭州要办亚运会了OpenAI:GPT-5 目标人脑超级 AI;被曝抄袭 Meta 大模型,零一万物:将更新代码;华硕、福音战士联名主板印错英文身家720亿!邝肖卿首次成为中国女首富;零一万物回应大模型架构争议;字节跳动上半年营收约为540亿美元;雀巢回应网易举报丨邦早报《骄阳伴我》舞台塌陷是盛阳的失误还是组长使阴下绊子?阿里巴巴智能信息事业群发布夸克大模型;李开复AI公司回应“抄袭”;贾乃亮双11总销售额超13.6亿……零一万物李开复:要做 ToC 的超级应用,成为 AI 2.0 时代的微信、抖音Hugging Face宣布最受欢迎的AI机构;零一万物上线Yi-34B-Chat微调模型及量化版丨AIGC日报李开复4个多月后“放大招”:对标OpenAI、谷歌,发布“全球最强”开源大模型心平气和聊聊李开复的零一大模型套壳LLaMA这件事重构 LLaMA、更改张量名,李开复公司回应来了!网友:这就是中国大模型研发现状?李开复旗下340亿参数开源大模型被指“套壳LLaMA”,最新回应来了!
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。