做中国版ChatGPT,还有一个「隐身」大玩家
机器之心报道
作者:泽南
「通用人工智能是未来十到二十年国际科技竞争的战略制高点,其影响力相当于信息技术领域的『原子弹』。」3 月 4 日,在全国政协会议上,北京通用人工智能研究院院长朱松纯在一份提案中建议,要将发展通用人工智能提升到当代「两弹一星」的高度,抢占全球科技与产业发展制高点。
过去很长一段时间里,通用人工智能对于大多数 AI 学者来说是个遥不可及的目标,最近 ChatGPT 的出现却让人感觉:通用人工智能似乎已近在眼前。
ChatGPT 可以胜任各种任务,如搜索问答、文本生成甚至代码生成等,完全超越了人们印象中的 AI 智能助手。在使用者看来,它不仅能分辨出提问者的真实诉求,还拥有出乎预料的博识程度。
但在 ChatGPT 引发的全球技术竞赛中,我们剩下的时间可能不多了:上周三,OpenAI 开放了 ChatGPT API,开发者现在可以通过程序接口将 ChatGPT 和 Whisper 模型的能力集成到自身应用中。过不了多久,我们就能在各种常用 App 上见到「史上最强 AI」的强大能力了。
ChatGPT 的突破改变了人们对于 AI 的观感,而且技术还在不断进步。OpenAI 首席执行官 Sam Altman 提出了新的「摩尔定律」:宇宙中的智能每 18 个月翻一倍。
可见现在业界对于 AI 技术发展速度多有信心。
眼见 OpenAI 和微软的一路领先,国内外科技公司陆续宣布了构建 ChatGPT 类模型的计划,人工智能生成内容(AIGC)领域也进入了一轮爆发式的增长。
目前,国内科技公司正在加速追赶,一批具有商用潜质的类 ChatGPT 技术正逐渐浮出水面。
处于前排的追赶者
ChatGPT 是一个量变引起质变的过程:自 2017 年谷歌提出 transformer 架构以来,人们找到了通过充分利用算力实现 AI 性能提升的方法。2018 年起,OpenAI 先后迭代推出了 GPT-1、GPT-2、GPT-3 和 InstructGPT,而 ChatGPT 是基于最新版本 InstructGPT(GPT-3.5)的改进。
图源:https://lifearchitect.ai/chatgpt/
在 GPT 系列的发展过程中,「炼大模型」逐渐成为了人们提升 AI 性能的重要方式。短短几年,AI 模型的参数量已经从最初的数亿扩张到千亿,甚至万亿规模。
由于 AI 大模型的复杂程度,要想复制 ChatGPT 的成功,意味着技术团队必须要有足够的技术积淀,能动用大量数据和基础设施。在追赶的竞赛中,国内可能很难出现像 OpenAI 这样背靠巨头,「拥有无限资金」的创业公司。重任落到了大厂肩上。
从参数规模来看,国内科技公司的实验室里已经诞生过能够比肩最新版 GPT 体量的语言大模型。根据目前的消息,百度、阿里、腾讯等科技大厂,也已经纷纷官宣进入 ChatGPT 风口。
百度是最早针对 ChatGPT 做出明确表态的公司之一,在人工智能技术四层架构中的全栈布局是其应战的底气。2021 年底,百度曾共同发布了全球首个知识增强千亿大模型「鹏城 - 百度・文心」,模型参数达 2600 亿,是当时全球最大中文单体模型,在 60 多项任务上取得了最好效果。
在微软与谷歌争夺 ChatGPT 搜索首发的同时,百度也官宣了将在 3 月 16 日推出类 ChatGPT 产品「文心一言」。
阿里巴巴则通过技术优势实现了参数规模的量级提升。2021 年 6 月,阿里的多模态大模型 M6 参数规模已经突破 10 万亿,规模远超谷歌、微软,成为全球最大的 AI 预训练模型。
阿里旗下的达摩院在大模型等 ChatGPT 所需底层技术上拥有强大技术能力。此前有消息透露,阿里版 ChatGPT 正在研发中,将和钉钉深度结合。
在提升参数量,并通过架构创新提高计算效率之外,人们也在探索 NLP 大模型的多任务统一能力。2021 年以来,国内 AI 科技公司纷纷转向大模型 + 行业 knowhow,致力于在已有大模型基础上搭建配套工具和平台,降低大模型产业化门槛。
腾讯在大模型领域上一直较为低调,在去年 4 月才首次对外披露了混元 AI 大模型的研发进展。混元完整覆盖 NLP(自然语言处理)、CV(计算机视觉)、多模态等基础模型和众多行业 / 领域模型。在去年 12 月,腾讯混元推出了国内首个低成本、可落地的 NLP 万亿大模型,并再次登顶自然语言理解任务榜单 CLUE。
今年 2 月底,腾讯针对类 ChatGPT 对话式产品已成立「混元助手(HunyuanAide)」项目组,将联合腾讯内部多方团队构建大参数语言模型,目标是「通过性能稳定的强化学习算法训练,完善腾讯智能助手工具,打造腾讯智能大助手,并能成为国内的业界标杆」。
在这些大厂之外,还有一个科技领域的重量级玩家总是受人期待,却仍未见出手。对于「华为在类似 ChatGPT 方向上的计划」,有计算产品线相关负责人仅表示,华为 2020 年开始在大模型开始有布局,2021 年基于昇腾 AI 与鹏城实验室联合发布了鹏程・盘古大模型,是业界首个千亿级生成和理解中文 NLP 大模型。
盘古模型在预训练阶段学习了 40TB 中文文本数据,并通过行业数据的样本调优提升了模型在场景中的应用性能,在 16 个下游任务中性能指标优于业界 SOTA 模型。在应用方向上,盘古支持丰富的应用场景,在知识问答、知识检索、知识推理、阅读理解等文本生成领域表现突出。
从技术实践、人才合作到落地应用,从国内一众大厂的表态中我们不难看出,ChatGPT 的竞争中,国内在很多领域上拥有相应的实力。
但这并不是全部,造大模型还有算力这个绕不过去的槛。
跨过算力门槛
人工智能先驱 Richard Sutton 在 2019 年曾发表过一篇著名的文章《苦涩的教训》(The Bitter Lesson),其中一句话说道:「70 年的人工智能研究史告诉我们,利用计算能力的一般方法最终是最有效的方法。」
这是一个颇具争议的观点,但他的预见在 2020 年的 GPT-3 上获得了验证,并随着去年 11 月出世的 ChatGPT 再次引发了广泛讨论。在过去几年中,大量研究者和机构在大模型这个方向上进行探索,并收获了成效,但随着模型体量的急剧膨胀,人们已开始面临大模型「算不起」的问题。
根据 OpenAI 自己的测算,自 2012 年起,全球头部 AI 模型训练算力需求每 3 到 4 个月翻一番,每年先进的模型训练所需算力增长幅度高达 10 倍。
大语言模型的规模和能力在过去四年中呈指数级增长。图片来源:https://huggingface.co/blog/large-language-models
到了 ChatGPT 这里,外界普遍估计其参数规模约在 1750 亿左右,它经由微软专门建设的 AI 计算系统训练,总算力消耗约为 3640 PF-days。而在推理阶段,以今年 1 月份独立访客平均数 1300 万计算,ChatGPT 对应的芯片需求为 3 万多块英伟达 A100 GPU,初始投入成本约为 8 亿美元,每天光是花掉的电费就要 5 万美元。
此前在 2022 年 11 月,英伟达在官网的公告中表示,数万颗 A100/H100 高性能芯片已被部署在微软 Azure 上,其成为了第一个使用英伟达高端 GPU 构建的大规模 AI 计算集群。
大模型增加了科技公司对专用 GPU 的需求。财报显示,英伟达 2023 财年 AI(数据中心)业务全年收入达 150.1 亿美元,创下历史新高,同比增长了 41%,其中第四季度 AI 业务收入 36.2 亿美元,同比增速为 11%。英伟达 CEO 黄仁勋表示,ChatGPT 是人工智能领域的 iPhone 时刻,也是计算领域有史以来最伟大的技术之一。
这种投入远超以往 AI 领域的研究:强如微软,在帮 OpenAI 打造 ChatGPT 时都因为算力不足而面临内部压力,还被迫暂停了一些其他项目。
对于想构建 ChatGPT 级别产品的国内公司来说,目前高性能 GPU 芯片面临短缺问题,硬件、运营成本,快速商业化是肉眼可见的挑战,参与者需要具备强大的硬件基础,丰富的工程经验,以及敢于投入的意志。
在用于大模型的 AI 算力上,国内几家科技公司也有相应的准备。
去年 5 月,百度智能云宣布落地了新一代高性能 AI 计算集群,提供 EFLOPS 级算力支持。据报道,该集群基于 NVIDIA A100 GPU 和 InfiniBand 网络构建,研究人员可基于全新发布的实例组建上千节点规模的超高性能计算集群,成倍缩短超大 AI 模型的训练时间。经过百度 NLP 研究团队的验证,在该集群上提交千亿模型训练作业时,同等规模下整体训练效率是普通 GPU 集群的 3.87 倍。
在国内科技公司行列中,说到算力,华为有着自己的先天优势。从盘古大模型的新闻中,我们经常会看到鹏城云脑、昇腾 AI 芯片的字样。
鹏城云脑 II 自 2021 年起正式运行,是一套专为 AI 任务设计的超算系统,曾在国际超算大会上多次刷新世界纪录。它以华为 Atlas AI 集群为底座,通过多样化的异构计算平台、多源算法平台和多态智能应用,支撑了多项 AI 重大应用的模型训练及推理。
更重要的是,鹏城云脑 II 可以提供 1E OPS 智能算力,即不低于每秒 100 亿亿次操作的 AI 计算能力。在盘古大模型的训练上,华为就动用了超过 2000 块昇腾 910,以 640P FLOPS 的 FP16 算力训练了两个月。
而鹏城云脑只是体现华为 AI 整体能力的案例之一。宏观的看,在 2022 年的国内云计算市场份额调研中,华为云已位居第二,增速达 67%,是当前国内市场中云增速最快的主流云服务商之一。
为了让 AI 技术更高效地落地,华为还实现了从底层硬件到应用软件的整体打通,通过底层软件、训练框架、ModelArts 平台的协同优化,充分释放了芯片算力,实现了端到端的性能优化。
据介绍,借助 ModelArts 平台的高效处理海量数据能力,在训练盘古大模型时,华为仅用 7 天就完成了 40TB 文本数据的处理工作。而当前的盘古系列超大规模预训练模型,已经包括 NLP 大模型、CV 大模型、多模态大模型和科学计算大模型等多个种类。
新兴的 AI 技术也面临着技术落地的挑战。在很多行业应用中,人们需要针对业务场景开发一系列定制化模型,各自完成数据清洗、数据增强、模型适配等工作,这些模型面临着难以复用的挑战。预训练大模型的逻辑是提前将知识、数据、训练成果沉淀到同一个模型中,再由不同应用的开发者在此基础上进行二次开发和微调,就像一个基础通用的技术底座,可以大幅提升效率。
这让 AI 具备更多的普惠属性,华为基于盘古提出了以大模型为核心的普适 AI 建模工作流,能让一个模型覆盖多个场景,减少专家的干预和人为调优的消耗,大幅提升技术落地效率,也降低了技术门槛。这或许是搜索引擎之外,能让大模型更广泛应用的正确方向。
不难看出,AI 领域发展到了 ChatGPT 时代,早已不再是比某项领先的技术,而是在比整套技术体系,真正具备全栈实力的公司会很快脱颖而出。
那么,ChatGPT 军备竞赛,华为会出手吗?根据最近的消息,在华为内部,有项目已在研发过程中了。
© THE END
转载请联系本公众号获得授权
投稿或寻求报道:[email protected]
微信扫码关注该文公众号作者