Redian新闻
>
英伟达与云巨头必有一战|甲子光年

英伟达与云巨头必有一战|甲子光年

科技

云能做芯片,芯片也能做云。


作者|赵健


“为了食物而奔跑,或者为了不被他人当食物而奔跑。无论哪一种情况,都要保持奔跑。”


这是英伟达CEO黄仁勋今年在台湾大学演讲中对毕业生的寄语,当然它也是黄仁勋一手缔造的这家万亿市值帝国的心态诠释。


2023年,奔跑中的英伟达遇到了生成式AI,黄仁勋多次称之为“AI的iPhone时刻”。在这一时刻,黄仁勋把目光瞄向了一个成为猎手而非猎物的机会——云。


英伟达貌似不应该有做云的动力,不仅因为云服务商都是英伟达的重要客户,每年向英伟达采购数十亿美元的GPU,更因为这件事看上去毫无胜算。


今天的云计算市场被亚马逊AWS、微软Azure、谷歌云三大云巨头牢牢把控。根据Statista数据,2022年AWS的市场份额为32%,Azure为23%,谷歌云为10%,三家合计市场份额达到了65%。


我们并非没有看到挑战者。过去十年,VMware、戴尔、惠普等知名企业都想在云计算的市场分一杯羹,但无一例外都失败了。


然而,正如每一次技术革命都会产生新的弄潮儿,这一次生成式AI的浪潮,芯片厂商英伟达开始向云计算市场一步一步试探:


第一步,在今年3月21日的GTC大会上,英伟达发布了DGX Cloud。从名字就可以看出,这是一款云产品,客户可以通过按月租用的方式,直接在云端或者本地数据中心获取英伟达的AI产品与服务;


第二步,投资三大云巨头的竞争对手。英伟达今年先后投资了CoreWeave、Lambda Labs两家美国的中小云服务商,并且向其倾斜分配稀缺的GPU芯片。这种“偏爱”有多夸张?在GPU一芯难求的当下,CoreWeave却能通过抵押其囤积的充沛的GPU——尤其是H100,而获得了23亿美元的债务融资。


尽管才刚刚开始,但布局云业务代表了英伟达对于云巨头的反击。


众所周知,谷歌、亚马逊、微软先后在内部启动自研AI芯片项目——谷歌的TPU系列,亚马逊的Inferentia和Trainium系列,以及微软今年被曝光的Athena芯片。三大云巨头都有充分的资源与动力自研AI芯片,来削减英伟达的“GPU税”。


英伟达对此心知肚明。黄仁勋在上一季度财报的电话会上直言“我们一直在关注竞争,而我们一直都有竞争”。


黄仁勋并不能阻止三大云服务商的扩张行为,但或许最好的防守就是进攻,英伟达的反击方式是直接下场做云。


凭借手上的A100、H100两张王牌——在很长的一段时间内,这两款芯片都是大模型训练与推理的最佳选择且没有之一,英伟达有机会成为云计算市场真正意义上的幕后操盘手。


一场围绕着芯片与云计算的明争与暗斗,正在这四家全球市值前五名的科技巨头中缓缓展开。




1.差点倒在黎明之前


熟悉英伟达的人会知道,今天的英伟达有多风光,去年的英伟达就有多惨烈。


英伟达的核心业务包括数据中心、游戏、专业可视化以及汽车四大板块。2020年第二季度,英伟达数据中心业务首次超过游戏,成为英伟达的第一大收入来源。


在2022Q4财报会(对应自然年2021年11月~2022年1月)上,英伟达交出了强劲的第四季度财报,数据中心业务同比增长71%。当时的黄仁勋乐观地表示:“英伟达运算平台迎来超乎寻常的市场需求。”然而一周之后,俄乌冲突爆发,干扰了关键原物料供应链。加上疫情影响,整个2022年,英伟达数据中心业务增速不断放缓。


今年2月发布的2023Q4财报业绩,英伟达数据中心增速仅11%,创下了历史新低,也是自2020年以来首次环比下滑。


2022年,英伟达的股价也惨遭腰斩。当然,今天它已经涨回来了,ChatGPT的横空出世拯救了英伟达。


注:英伟达即将在本周三(8月23日)发布2024Q2财报,对应2023年5月-7月。


在导致业务增速下滑的众多原因中,大客户需求的缩减最值得警惕。在2023Q4财报会上,英伟达CFO Colette Kress公布了一个数字:2023财年数据中心部门的150亿美元收入中,有大约40%的收入(约60亿美元)来自超大规模数据中心和云服务商。


但如果只看第四季度,这一比例仅占四分之一。超大规模数据中心建设者与云服务商正在大量减少GPU的支出。


除了客观的需求下滑,三大云巨头不断推进的自研AI芯片计划,正一点一点蚕食英伟达GPU的市场份额。


谷歌在2016年推出了第一代自研AI芯片TPU,五年之后的2021年5月19日又推出了第四代TPU v4。在今年发表的一份研究报告中,谷歌称已将4000个TPU v4串联在一起,构建了一台超级计算机,这台超级计算机的运行速度要比采用英伟达A100 GPU的同等机器快1.7倍,效率高出1.9倍。


亚马逊也有自研芯片的传统,这不仅是针对英伟达,而是针对所有芯片厂商。目前,亚马逊已经推出了四个系列的自研芯片——网络芯片Nitro系列,服务器芯片Graviton系列,AI推理芯片Inferentia系列、AI训练芯片Trainium。其中,后两款AI芯片与英伟达GPU存在竞争关系。


尽管入局较晚,但微软“虽迟但到”。今年4月18日,据The Information报道,自从2019年以来,微软一直在秘密研发AI芯片,内部代号为“雅典娜”(Athena),有数百名员工正在从事Athena项目,微软已投入了约20亿美元。微软与OpenAI的一些员工,已经可以拿到芯片来测试在GPT-4等最新大语言模型上的表现。


云服务商每年因采购GPU要交大量的“英伟达税”,尤其是在生成式AI爆发之后。


今年2月,New Street Research曾做过一次预估:基于ChatGPT的Bing搜索引擎,要想在一秒钟之内响应用户的提问,需要8个GPU。按照这一速度,微软需要超过2万台包含8个GPU的服务器才能将Bing中的模型部署给每一名用户,而这将花费微软40亿美元。如果是谷歌这样的规模,每天处理80~90亿次查询,则需要花费800亿美元。


云服务商自研AI芯片并不会对外销售,并不会与英伟达产生直接的竞争。但是,通过将自研芯片替代GPU部署到数据中心里,可以有效削减成本。比如,谷歌已在其云服务中部署了数百台TPU v4超级计算机。


三大云服务商都有充分的资源与动力去自研芯片,这被看做是英伟达帝国的一条裂缝。英伟达对此心知肚明,但似乎没有更好的办法。


直到ChatGPT的出现,被云服务商步步紧逼的英伟达看到了反击的突破点。既然云服务商可以做芯片,那英伟达难道不能在AI时代做云吗?




2.英伟达做云有机会吗?


英伟达目前是生成式AI革命的最大受益者,黄仁勋今年也总是把“AI的iPhone时刻”挂在嘴边。生成式AI爆发的需求,让GPU成为了硬通货,有人干脆称“GPU就是新的美元”。


从GPU到云,英伟达真的有机会吗?


生成式AI的训练与推理主要是在云端进行,提供AI基础设施的云服务商将是生成式AI浪潮的最大受益方之一。根据硅谷风投机构A16Z估算的数据,生成式AI所产生总收入的10%~20%最终流向了云服务商。


但是,这个过程不会很快。亚马逊CEO安迪·贾西在2023年Q2财报电话会上称:“生成式AI无疑将改变几乎所有客户的体验。但现在还为时尚早,大多数公司仍在考虑如何实现这一目标。我们处于一个非常早期的阶段,这是一场马拉松。”


云服务的本质是将数据中心内的硬件资源虚拟化,然后租给市场。传统数据中心的服务器几乎100%是基于英特尔、AMD的CPU而建设,CPU像是一名“拥有最强大脑的通才”,它向外提供“通用计算”能力——处理操作系统、系统软件与应用程序这一类拥有复杂指令调度、循环、分支、逻辑判断与执行等程序任务。


但CPU并不擅长大规模的数据处理与并行计算,而这正是人工智能所需要、英伟达GPU所擅长的。GPU像是一名“暴力计算的专才”,专门对付图像处理、深度学习以及当下的大模型训练、推理等任务。黄仁勋将这种大规模并行计算能力称为“加速计算”。


2012年,深度学习之父杰夫·辛顿及其徒弟首次尝试在英伟达GPU上训练卷积神经网络模型AlexNet,并在图像识别大赛中一举夺冠。这件事催生了接下来十年的深度学习大爆发,整个人工智能行业包括英伟达自己,都意识到了GPU做加速计算的潜力。


英伟达命运的齿轮开始转动。此后,黄仁勋在很多场合呐喊“摩尔定律已死”。他认为,CPU扩张的时代已经结束,每五年以同样成本获得十倍性能的提升也已经结束。取而代之的将是GPU,黄仁勋专门发明了一个“黄氏定律”——GPU将推动AI性能实现逐年翻倍。


2012年~2022年的十年间,我们可以称之为加速计算的从0到1,人工智能在图像识别等特定行业、特定场景落地。但是,这一时期AI需求还是不够大,研究机构Aletheia预测,当前AI服务器的市场渗透率还不足5%。这对于实现黄仁勋加速计算的梦想还远远不够。


直到2022年11月ChatGPT诞生,“AI的iPhone时刻”出现了。这可以看做加速计算从1到10规模化增长的开始。


生成式AI收入(图片来自彭博社)


黄仁勋认为,加速计算与生成式AI两大发展趋势相结合,将改变过去60年来的计算方式。随着公司竞相将生成式AI应用到每个产品、服务和业务流程中,价值万亿美元的全球数据中心基础设施将从通用计算过渡到加速计算,由此引发的数据中心重塑必将创造出巨大的市场机遇。


上一季度的财报电话会中,黄仁勋信誓旦旦地表示:“我们正处于一个为期十年的数据中心智能化的第一年。”


黄仁勋表示,加速计算是一个全栈挑战,它必须把所有的软件、所有的框架库、所有的算法集成在一起进行工程化,这些工作不仅仅是针对一颗芯片,而是针对整个数据中心。数据中心就是一台超级计算机,要获得最佳性能,需要对网络操作系统、分布式计算引擎、网络设备、交换机、计算架构等全栈内容进行优化。


比如,通用计算数据中心主要使用以太网将所有服务器进行连接,不需要大规模的数据传输;英伟达提出的加速计算数据中心使用名为Infinite Band的技术进行连接,具有极高的数据吞吐量。


系统性的优化也让加速计算数据中心比传统数据中心有更高的效率、更低的成本。


黄仁勋在今年8月举办的计算机图形年会SIGGRAPH上抛出了一个问题:“花1亿美元能买什么?”黄仁勋自问自答:“过去,1亿美元能买8800块x86 CPU组成的数据中心,功耗是5MW;今天,1亿美元能买2500块GH200组成的Iso-Budget数据中心,功耗是3MW,AI推理性能达到上述CPU数据中心的12倍,能效达20倍。”


在相同的AI推理性能下,GPU数据中心的成本只有CPU数据中心的1/12。“买得越多,省得越多。”这是黄仁勋对其加速计算数据中心的带货宣言。


迄今为止,英伟达已经建设了5座数据中心,并帮助世界各地的客户建立自己的数据中心。而且,传统的数据中心从交付到运行可能还需要数月甚至一年之久,而在英伟达。这一时间以周为单位。“团队在这方面的专业知识非常了不起。”黄仁勋表示。


对于三大云巨头而言,从通用计算数据中心到加速计算数据中心的过渡不会很快。这不仅关乎技术与能力,也关乎这类巨头公司的决策与流程,俗话说“船大难掉头”。


这就给了英伟达做云的机会。从数据中心向前一步迈向云只是一件水到渠成的事,而且,英伟达已经在尝试这么做了。




3.暗度陈仓


就在数据中心业务增速最低的2023年Q4财报上,英伟达同时还预告了一款新产品——DGX Cloud。在一个月之后的GTC大会上,DGX Cloud正式发布。


从名字就可以看出,这是一款云服务产品。难道英伟达要进军云计算市场了?


先来看下DGX是什么。DGX是英伟达在2017年首次发布的超级计算机,黄仁勋称之为“装进机箱里的数据中心”。


第一代DGX内部集成了8块GPU(Tesla P100)与4块固态硬盘,并使用了英伟达NVlink连接技术。在深度学习训练上,单台DGX的性能相当于250台普通x86服务器。当然,它也很贵,单台售价12.9万美元。


会后,黄仁勋将第一台DGX-1赠送给了埃隆·马斯克。马斯克是OpenAI的联合创始人,OpenAI就是从这台超级计算机开始,一步一步打造了今天的ChatGPT。


图片来自网络


今天,DGX超级计算机已经发展到第五代,前四代分别为DGX P100、DGX A100、DGX H100,以及最新的DGX GH200。


英伟达发布的DGX Cloud,就是此前发布的超级计算机的云版本,一个DGX Cloud实例(云服务器中的虚拟计算机)配置了8张A100或H100。


然而,DGX Cloud的售价并不便宜,每个月36999美元,大约26.4万人民币。作为对比,含有8颗A100的微软Azure ND96asr实例与其同等规格,每个月费用为19854美元,只有DGX Cloud的一半。


为什么英伟达敢定如此高的价格?答案在于DGX Cloud是一款集成了软件与硬件的交钥匙解决方案。英伟达现在已经不再标榜自己是一家GPU芯片公司,而是定位一家计算平台公司。


DGX Cloud除了硬件资源,还推出了两个配套软件平台,一是NVIDIA AI Foundations,帮助企业创建定制模型,包括语言、视觉与生物医药模型等;二是NVIDIA AI Enterprise,它包含了4000个不同的AI框架,帮助企业开箱即用。英伟达的AI产品与国内阿里云等云服务商推出的MaaS类似。


黄仁勋对这些新的软件收入来源非常乐观,并预计生成式AI领域的收入将从公司总收入的“个位数”部分增长到未来一年内“相当大”的一部分。“我们对新商业模式的拓展感到兴奋。”黄仁勋表示。


DGX Cloud的推出客观上与云服务商形成了一定的竞争关系,但英伟达仍想继续与云服务商保持紧密合作。英伟达当前并不会从零开始构建完整的云基础设施,而是把DGX Cloud托管在各家云服务商的云平台上。


英伟达将基础硬件设施出售给云厂商,再向他们购买云计算资源,最后把云服务出售给企业客户并自留全部收入。客户仅通过浏览器,就可以访问英伟达的AI超级计算机,来使用英伟达的AI产品与AI模型服务。


但是,云服务商会买账吗?


对此,黄仁勋是这样解释的:“英伟达云服务与云服务商的合作将是一次双赢,双方将共同创建新的应用程序并开发新的市场。”黄仁勋表示,理想情况下,客户采购英伟达DGX Cloud与云服务商的云的比例为1:9。


Oracle是第一家宣布与英伟达合作的云服务商。这家软件巨头近几年正急迫地进行云转型,因此有充分的动力与英伟达组成同盟,以期在云计算市场打一张翻身仗。英伟达也正在与微软Azure、谷歌云和其他云平台合作,预计也将很快推出。


英伟达的如意算盘打响亮,但并不是所有的云服务商都会接受英伟达的要求。AWS就拒绝与英伟达就DGX Cloud产品进行合作。


据路透社报道,亚马逊弹性云计算副总裁Dave Brown表示:“英伟达联系了我们,我们研究了商业模式。但对于AWS来说,这没有多大的意义。”他认为,AWS在构建可靠服务器方面拥有长期经验,并且拥有现有的供应链专业知识。


AWS在今年3月份开始购买英伟达的H100芯片,但仅作为其自研系统的一部分。AWS还在考虑使用AMD最新的人工智能芯片MI300,但尚未做出最终决定。


面对一个新兴的生成式AI市场,英伟达与云服务商的利益分配,还将会持续地变化。但相当明确的是,英伟达已经动了云服务商的奶酪。




4.釜底抽薪


推出DGX Cloud仅仅是第一步,英伟达对云计算市场的参与度还在进一步加深。这一步,英伟达没有选择亲自下场,而是选择扶持三大云巨头的竞争对手。


今年,一家名为CoreWeave的中小云厂商异军突起,成为了比三大云巨头更炙手可热的云服务商。CoreWeave称自己是全球范围内唯一一家可以“大规模提供英伟达H100”的云服务商。


据GPU Utils网站预估,CoreWeave向英伟达预定的的H100数量约为35000-40000张。对比来看,谷歌在今年5月发布的超级计算机A3拥有大约26000个H100,亚马逊AWS在7月上线的EC2 P5 虚拟机实例基于20000块H100构建,微软在8月上线的Azure ND H100v5虚拟机,仅仅包含8块H100。不过,微软拥有大约28.5万块A100。



CoreWeave到底是什么来历?这家成立于2017年的公司,最初主要经营以太坊加密货币挖矿业务,在2018年干到了北美最大的以太坊矿工。当时的CoreWeave部署了超过50000个GPU,提供了以太坊网络1%以上的算力。


在挖矿之外,CoreWeave也开始尝试服务一些企业客户,比如人工智能、娱乐媒体与计算化学。2019年,CoreWeave从消费级GPU全面转向英伟达的企业级GPU,因为企业级GPU可以全天候运行,让GPU的利用率提高到近乎100%。


2021年,CoreWeave正式上线了基于英伟达的GPU云平台。2022年第三季度,随着以太坊的合并,大规模显卡挖矿时代结束,CoreWeave彻底转型成为一家云服务提供商,并在这一年11月宣布成为首批提供采用NVIDIA HGX H100超级芯片的云服务商之一。


与亚马逊、微软、谷歌这三大巨头相比,CoreWeave并不打算自研AI芯片,这得到了英伟达极大的赏识。


2023年4月,英伟达深化了与CoreWeave的合作,在业务合作之上又跟投了CoreWeave的2.21亿美元B1轮融资。最重要的是,英伟达向CoreWeave提供了稀缺的A100、H100的独特渠道。


在近期彭博社的采访中,CoreWeave联合创始人&首席战略官Brannin McBee表示,英伟达今年的芯片已经卖光了,CoreWeave的订单也排到明年Q2季度了。


CoreWeave可能囤积了世界上最多的英伟达GPU。在当下GPU短缺的背景下,芯片甚至比股权更值钱,CoreWeave开创了一种创新性的融资方式。今年8月,CoreWeave将手上的GPU芯片做抵押,以此获得了23亿美元的债务融资。此前,CoreWeave的B1轮股权融资仅获得4.21亿美元。


凭借与英伟达组建的“云+GPU”战略联盟,CoreWeave的业绩也一飞冲天。


在今年之前,CoreWeave还只是一家名不见经传的公司。但现在,CoreWeave准备通过其GPU从中赚取数十亿美元的收入。在接受VentureBeat采访时,CoreWeave联合创始人兼首席战略官Brannin McBee透露,2022年CoreWeave的收入为3000万美元,今年将达到5亿美元,明年已经签订了近20亿美元的合同。


CoreWeave还宣布在德克萨斯州建立一个耗资16亿美元的新数据中心,并在年底之前将数据中心扩展到14座。目前,AI明星独角兽Inflection正在使用CoreWeave的云来构建大约22000块H100的GPU集群,这家公司在今年7月宣布了新一轮13亿美元的融资。值得一提的是,Inflection的投资人中也有英伟达的身影。


CoreWeave是英伟达今年投资的第一家云计算公司,但不是唯一的一家。


据The Information报道,英伟达即将与另一家云服务商Lambda Labs达成投资协议,英伟达可能投资3亿美元,Lambda Labs的估值将突破10亿美元。Lambda Labs称能提供全世界价格最低的NVIDIA A100、H100算力资源。


而当前,凭借对GPU资源的“合理”分配,英伟达成为了实际意义上云计算市场的操盘手,从根源上拿捏了云巨头的把柄——微软就是一个很好的案例。


微软在最近一次财报中添加了一条新的风险因素:“如果无法为其数据中心获得足够的人工智能芯片,服务可能会中断。”


面对庞大的AI计算需求,微软的GPU负载供不应求,甚至不得不向自己的竞争对手中小云厂商求助。据CNBC报道,微软“已同意在未来几年内斥资数十亿美元购买初创公司CoreWeave的云计算基础设施”。在英伟达的操控下,微软不得不允许CoreWeave这样的中小云服务商从GPU中赚一层差价。


通过投资入股中小云服务商,英伟达的半只脚已经涉足云计算领域。虽然还没有尝试直接下场构建云基础设施与云巨头展开全面的、直接的竞争,但如果将来英伟达直接通过收购中小云服务商等方式入场,我们也不会感到惊讶。


无论英伟达最终是否会躬身入局,它都成了生成式AI浪潮中云计算市场最大的幕后玩家。


(封面图来源:电影《无间道》




END.





微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
毛利率首超特斯拉,但比亚迪还有一场硬仗|甲子光年多家上市公司加速布局精密减速器,为什么“这块铁”成为机器人产业链中的香饽饽?|甲子光年四年更换三位中国区CEO,焦虑的大众开始“资本换技术”|甲子光年国产基础软件再创新赛道,湖仓一体成就百亿市场|甲子光年历史名城佛罗伦萨OpenAI正在杀死创业公司?|甲子光年又一款能源大模型发布,为什么储能需要AI?|甲子光年京东言犀大模型,离不开数智供应链|甲子光年对话Moka李国兴:大模型改造SaaS需要持续渐进式创新,先发者把握先机|甲子光年大模型追踪“杜苏芮”|甲子光年PaaS平台成为赋能实体经济走向数实融合的重要路径|甲子光年智库斯年智驾再获新一轮战略融资,场景物流无人驾驶走向规模化落地|甲子光年华为云盘古大模型:下矿坑、测台风、进产线,没时间作诗|甲子光年百度云MaaS升级:接入国内外33个大模型,进行二次性能增强|甲子光年硅谷大佬都在聊的AI Agents,是真热还是虚火?|甲子光年粽子跟着大厨,做几个家常菜!大模型时代,智能驾驶赛道需要怎样的AI芯片?|甲子光年夜魅 (一)此情可待成追忆2023世界人工智能大会:大模型、机器人和AI芯片的试验场|甲子光年小鹏汽车自动驾驶1号位吴新宙确认离职,李力耘接任|甲子光年容联云发布赤兔大模型,一次由内而外的自我重塑|甲子光年以AI变革组织运营与管理,一家中国大数据厂商的升维布局|甲子光年ChatGPT流量下滑10%,但真正的挑战不在这里|甲子光年阅文发布首个网文行业大模型“阅文妙笔”,辅助网文创作、提效IP打造|甲子光年亚马逊、谷歌、微软,三大云巨头还没能从AI大模型中赚钱|甲子光年四年估值翻100倍,这家元宇宙公司想用15年打造头号玩家|甲子光年谷歌DeepMind发布机器人大模型RT-2,提高泛化与涌现能力|甲子光年剑指AI,马斯克暗度陈仓|甲子光年甲小姐对话黄铁军:作为个体的永生没有意义|甲子光年大模型狂飙半年,掏出真金白银的投资人是少数|甲子光年​发生了什么?Sarachi 一夜之间就没了英特尔发布中国定制版大模型专用芯片Gaudi2,用性价比挑战英伟达|甲子光年2023闵行智能机器人产业发展白皮书|甲子光年智库瓜分20万奖金,第四届FineBI数据分析大赛启动|甲子光年
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。