OpenAI提出的新摩尔定律怎样理解?中国隐藏算力巨头有话说
允中 发自 凹非寺
量子位 | 公众号 QbitAI
ChatGPT火遍全世界,与之相关的一切都在风口浪尖。
OpenAI首席执行官Sam Altman看似随意分享的一句话,就成为热议的焦点:
新版摩尔定律很快就要来了,宇宙中的智能每18个月翻一倍。
一些人猜测可能指神经网络的参数量,但和过去几年的数据并不对的上。
一些人理解是包括人和AI在内所有智能体的能力,但这个指标如何衡量又成了问题。
也有很多学者、网友并不认同这个判断,IBM科学家Grady Booch表示这是胡说,就被顶成了热评第一。
对于这些讨论,Altman只是简单的回复了“现在还没开始”。
但不管怎么说,AI飞速发展的背后,算力是一个明确可衡量的指标,也是必不可少的条件。
早在2018年,OpenAI还发表过另一个与摩尔定律形式相近的观点:
从2012年的AlexNet到2017年底的AlphaGo Zero,训练最大AI模型所需算力每3.4个月翻一番。
不久之后,他们自己发布的GPT-3又把这个数字缩短到2个月翻一番。
到了ChatGPT时代,需要考虑的就不只是AI训练算力,全球1亿月活用户、接入微软必应搜索等产品,AI推理算力也是重要支撑。
最直接为ChatGPT提供算力的是微软Azure云,从2019年第一次向OpenAI投资10亿美元开始就是OpenAI的独家云供应商。
最新追加100亿美元投资时,双方在声明中再次强调了这一点。
独家供应,意味着OpenAI的开发基础设施全部构建在Azure云上,使用Azure云提供的工具链。
也意味着即将到来的AI创业大军,要想基于ChatGPT也只能选择Azure云。
相应的,谷歌AI背后有自家的谷歌云,云计算行业第一的亚马逊也紧急找来HuggingFace合作部署开源大模型Bloom。
……
而云计算并不是算力的源头,就在ChatGPT的火爆火热中,算力供应侧出现一批表现亮眼的公司。
有些玩家你或许马上就能想到,但也有一些参与者,由于之前其他业务太出名,可能在意料之外。
这其中,就有一位来自中国的选手。
新摩尔定律,离不开算力
上一波以图像识别、推荐算法为代表的AI应用落地,推动数字经济发展的时候,算力从一个技术名词上升成经济学名词,被产业、学界反复强调。
这一波生成式AI引爆全球热情的时候,算力再一次升级成了与普通人工作生活相关的,被大众所感知到。
ChatGPT消耗多少成本?
半导体行业资讯机构SemiAnalysis做过一个估算:以GPU衡量,需要约3617台英伟达HGX A100服务器,也就是28936块A100;以资金衡量,用户每一次提问的成本是0.36美分,一天就要花费69万美元。
得出的结论是:如果让ChatGPT承担谷歌搜索的全部访问量,总共需要410万张英伟达A100 GPU。
所以自然而然,英伟达就是那个ChatGPT火爆中最知名的获利者。目前英伟达在AI芯片市场约占75%-80%份额,ChatGPT每一次热搜,都是老黄账户金币到账的声音,在这波热潮加持下,截至最新财报公布之时,英伟达的股价在2023年足足上涨了45%。
CEO黄仁勋也在电话会议上有个最新表态:
“生成式AI,让全球企业都有了开发和部署人工智能的战略紧迫感。”
而且这还只是开始,根据花旗银行则预测,未来12个月内英伟达GPU销售额可达到30亿至110亿美元。
英伟达之外,从GPU往上游追溯ChatGPT红利赢家,是位于芯片制造层的台积电。
近期就有报道称,近期英伟达、AMD包括苹果都对台积电下紧急订单,希望抢占未来产能。
之前,台积电多年来的收入支柱一直是智能手机业务,但在2022年,智能手机销量惨淡,人工智能爆发的双重影响下,高性能计算业务连续三个季度反超——或许也是时代转关的先声。
更重要的是,台积电实际也已经明确了这种变化。在最近的对外发声中,台积电对于接下来的一年给出了乐观预期,表达也非常耐人寻味:尽管全球半导体产业面临衰退,但全年业绩仍有望小幅增长。
当然,如果更加简单粗暴推导,其实英伟达涨的时候,台积电业绩也不会差,毕竟产业链角色和供需关系就放在那里。
那按照这种供需,是不是ChatGPT带来的算力层红利,也会到云计算、云服务厂商了?
是,也不全是。
就在ChatGPT的火爆中,诸多分析指向了云计算,但也有分析快速把目光集中到了中间环节——GPU到云计算服务的中间环节——服务器。
芯片要想真正发挥作用,绕不过服务器:芯片之间如何高速互联,整个机柜如何控制能耗和散热,系统设计如何适应不同工作负载,都影响着最终性能和效率。
Gartner就有预测称,到2025年,全球服务器市场规模会达到1350亿美元,其中AI服务器和AI云服务更是会呈爆发态势。
而也就是在这一环节,在AI服务器方向,藏着文章开头提到的来自中国的算力参与者。
联想集团,Lenovo。
或许之前,你对联想集团认知更多的是PC,但PC的本质也是个人算力。
联想走过这样一条从PC到高性能计算,再到更广泛的算力基础设施之路。
这有最直观的财报数据为证。根据联想集团公布的第三季度财报(2022年10-12月),其ISG(Infrastructure Solutions Group)基础设施方案业务,营收增长48%,运营利润更是猛增156%。
与DigiTimes统计的同期全球服务器出货量同比下降7.1%,环比下降4.3%形成鲜明对比。
联想集团ISG,提供的正是算力为核心的基础设施输出和方案,服务器是其中最重要的业务之一。
并且更直接地细分到服务器业务,该季度营收同比增长了35%,已经成为了全球第三大服务器提供商——来自GhatGPT的算力红利功不可没。
但ChatGPT的突然爆火,实际也只是把联想集团作为算力赢家的隐秘角色推到了台前。
联想靠什么成为算力“隐形”冠军?
联想集团董事长兼CEO杨元庆称,ChatGPT背后所需要的普慧算力基础设施恰好是联想已经布局多年的强项。
对算力设备的需求联想早已预见,并提出“端-边-云-网-智”的新IT架构。
去年,联想进一步提出普慧算力。即随着数据爆炸式增长,我们进入了一个全新的数字化、智能化的时代,对于计算的需求如雨后春笋,“单兵作战”的设备以及本地化的数据中心已经远远不能满足随时随地的计算需求,需要“端-边-云-网-智”的新IT架构为用户提供无处不在的普慧算力。
由此可见,联想想成为的并不是生产算力的“水源”,而是“送水人”——将芯片整合成可高效释放算力的服务器,更不容易被外界感知。
在这个角色和定位中,联想集团很“强”——这种强核心是两个方面。
一是服务器产品性能;二是数量规模。
在该领域,全球高性能计算榜单TOP500是观察服务器算力的最佳参考,而如果打开最新一期全球高性能计算榜单TOP500(2022年11月),就可以感知到上述所说的联想集团之强。
市场份额占比32%,以160台的供给占比全球第一,甚至领先第二名惠普集团近12个百分点。
而且联想集团这个算力供应,还具有客户构成上的普遍性和多元性。
在回答日本经济新闻社的提问时,联想集团执行副总裁Kirk Skaugen就曾凡尔赛式透露:全球排名前10的公有云提供商中,有8个是联想集团的客户。
换句话说,联想服务器得到了全球客户的认可,这对国产服务器厂商来说很不容易。
这些客户中,外界猜测就包括了云领域第二名的微软Azure云——ChatGPT背后的加速引擎、以及“金主爸爸”。
当初微软大手笔投资支持OpenAI时,就有评论说,精明的微软CEO纳德拉哪里会用真金白银的投资支持,核心提供的还是等价云服务,既获得了OpenAI股权,实现了顶级AI研究机构的战略布局,又给自家Azure云带来了客户和增涨,简直一石二鸟,这生意亏不了。
只是没想到,疯狂的OpenAI还真用大模型搞出了名堂,真用一个偶然创新出的ChatGPT点燃了全球科技互联网,让所有玩家陷入大模型、生成式AI的沸腾中。
微软不仅率先获益,还把老对手谷歌逼到墙角,动摇了谷歌搜索的现金奶牛,纳德拉估计最近梦都是甜的。
而与微软合作关系密切、还在2022年拿下微软设备合作伙伴奖的联想集团,甜头已经直接展现在财报业绩上了。
另外,也是这层关系,也就能理解2021年联想集团创新科技大会上,为什么会出现微软CEO纳德拉了,只不过当年的公告还太“行业黑话”,需要结合今日ChatGPT红利才能真正看明白,当时公告是这样写的:未来双方在PC、云计算与边缘计算、服务三个领域展开更深入合作。
不过即便联想集团成为了ChatGPT这波热潮的算力提供者,就意味着这种前景可持续吗?毕竟微软和ChatGPT的案例有其特殊性,幕后的联想集团尝到甜头有幸运的因素。
但从ChatGPT确立的大模型发展方向来看,趋势会持续下去,算力供给侧还会随之发生方向性改变。
据《财经十一人》最近基于多位基础设施人士观点得出的结论称,AI算力会对云计算的财务模型带来重大影响,背后都是摩尔定律式的指数增长逻辑:
其一,AI算力消耗量、增速,将远大于通用算力消耗量。信通院2022年数据显示,2021年中国通用算力规模95 EFlops,增速为24%,占比47%。智能算力规模是104EFlops,增速为85%,占比超50%。这意味着,智能算力会成为云计算的新一轮增长点。
其二,智能算力的价格高于通用算力。通用算力的价格在不断降低,由于AI算力相对稀缺,价格目前正在被推高。理论上看,实现规模化运营的AI算力比通用算力的毛利率高10%以上。
其三,AI算力+大模型在垂直行业的使用可以让新的应用模式产生。比如金融、自动驾驶、医疗研发、智能制造场景下,企业通常需要采购企业的AI大模型开源平台,调教适合自己业务的小模型。这种PaaS化的AI服务可以带来60%以上的毛利润。这是目前加深AI算力/AI模型使用的最佳路径。
这种AI算力方向性的变革,具体到中国市场,还可以推演出更具体影响:
目前不可否认的是,中国云厂商的AI算力、大模型和微软存在较大的差距。其原因是,算力规模、数据规模、模型精度都存在差距。以算力规模为例,支撑ChatGPT的智能算力集群至少需要使用上万张英伟达GPU A100显卡。一次完整的模型训练成本超过1200万美元。
ChatGPT背后的智能算力集群,仅GPU显卡采购成本就超过10亿元。国内目前能够支撑起类似基础设施的企业不超过3家。中国云厂商的数据中心通常只配备了数千张GPU显卡。原因是采购一片英伟达顶级GPU的成本高达8万元。一台服务器通常需要4张-8张GPU,一台GPU服务器的成本通常超过40万元。国内服务器均价为4万-5万元。这意味着GPU服务器的成本是普通服务器的10倍以上。
所以这波大模型驱动的技术变革浪潮,对中国算力供应玩家的挑战和机遇,也基本能推导而出了。
首先,必须具备完整、成熟、稳定的智能算力集群基础设施。
其次,相关产品在综合性能之外,还需要具备能效优势——环保且省成本。
于是明确了这两点结论,大概也就能知晓联想集团作为ChatGPT红利背后隐藏赢家,算力前景方向上还会可持续下去的原因了。
如果算力迎来新摩尔定律,不可忽视的就会是能耗问题,国家发展改革委高技术司主要负责人21年曾表示,我国数据中心年用电量约占全社会用电的2%。
换个更直观的说法是“每年耗电超过2.5个三峡大坝发电量”,摩尔定律是一种指数增长,而三峡大坝发电量是不可能指数增长的。
联想集团为此研发了领先的“海神”温水水冷技术,使用50°C温水通过流动循环带走热量,省去了冷水机组和换热器,还可以利用余热为建筑供暖,每年电费节省和排放降低超过42%
在最新的全球HPC Green500榜单上,联想集团交付的Henri系统以每瓦特电力消耗可执行65.091亿次浮点运算的认证性能,不仅同时符合国内和国际要求,甚至成为全球最节能的高性能计算系统。
实际上,联想已经不是你刻板印象里的那个只有电脑的公司了。总体来看,在算力基础设施业务迎来爆发的同时,联想集团整体也逐渐完成了转型:个人电脑以外的业务总营收占比,已经超过了40%。
ChatGPT也好、大模型也好,甚至AI也好,技术创新周期中率先汹涌开来的算力红利,正在刷新联想集团,或者更准确地说,把算力供给侧的幕后隐形冠军推到台前。
— 完 —
点这里👇关注我,记得标星哦~
微信扫码关注该文公众号作者