被AI席卷的阿里百度,正重新思考怎么卖云|智涌分析
未来要卖算力,模型和产品才是新敲门砖。
文|邓咏仪
编辑|苏建勋
来源|智能涌现(ID:AIEmergence)
封面来源|IC photo
4月26日,阿里云在生态大会上再度发布一系列计划——包括一次“史上最大规模降价”,核心产品价格全线下调15%至50%,其中存储产品降价最大规模可达50%。
刚刚发布自家AI大模型“通义千问”和钉钉的“AI魔法棒”不久,阿里云已经迅速敲定了一系列生态伙伴——昆仑数智、中金财富、用友网络、亚信科技等七家数字化服务商成为首批伙伴,覆盖油气、电力、交通、金融、酒旅、企服、通信行业。
除此之外,阿里云对伙伴的支持分销伙伴的专属市场规模将扩大5倍,从原来的20亿提升到100亿,同时大幅提升伙伴佣金率。
大模型的通用能力需要海量计算资源,这会成为阿里大幅推进产品“被集成”战略的重要抓手——“被集成”指阿里云只负责核心产品研发和能力建设,但在行业解决方案和销售上,则依靠具体的行业ISV和生态伙伴来进行。
作为云厂商龙头,阿里云的一系列动作无疑是鲜明信号。AI大模型浪潮下,算力是昂贵又稀缺的资源,将AI能力内置到钉钉中、产品降价、让利合作伙伴、启动伙伴计划……这都是为获取潜在AI客户做铺垫。
阿里巴巴CEO张勇在大会上透露,通义千问发布后,超过20万企业用户申请接入千问测试,几乎覆盖所有新兴和传统行业。
不止是阿里云,为了争夺大模型带来的新市场,云厂商们在使出浑身解数,在最近两周来到一个小高潮——
百度智能云企业大模型平台正紧锣密鼓联合首批企业客户内测,4月25日也发布了智能办公、旅行服务、电商直播、政务服务、金融服务五大领域的应用模版。比如百度和石墨合作推出的AI助手“石小墨”,就是智能办公的一个AI入口。
字节发布自研DPU等系列云产品,并推出新版机器学习平台;飞书则即将上线AI助手“My AI”,可以通过对话形式,帮助用户自动创建日程、搜索公司内部知识库等功能。
AI将如何重塑云计算?
以前云厂商提供的,是以CPU为主的通用算力。但到了自动驾驶、3D、AI等领域,计算更为复杂,GPU、DPU、NPU等异构算力由此而生。AI所需要的算力,其主要来源就是GPU。
以OpenAI为例,微软早早就投资了OpenAI数十亿美元,这些投资大部分都以算力的形式提供。OpenAI的计算工程很大一部分都在微软Azure上进行,这也让微软积累了一套提供AI算力的最佳实践。
这也是为什么,当六年后ChatGPT迅速席卷全球时,云计算行业会最先受到影响——越来越多人想用ChatGPT的服务,意味着计算需求的剧增。而在背后提供AI芯片的英伟达和云服务的微软,会率先吃到这一波红利。
相对应的,AI大模型也会反过来重塑云计算架构,让云计算进入“重工业时代”。
为了应对高密度的计算需求,云计算原来的固有三层架构(IaaS、PaaS、SaaS)界限会逐渐模糊。如果说以前像乐高积木一样自由组合,那么以后,走向集成化将成为趋势,即端到端的一站式服务。
阿里云的架构也大有这样的趋势——PaaS和SaaS会被MaaS取代,AI+MaaS将成为新架构。
在未来,阿里云的大模型顶层会是为MaaS模型即服务,阿里云向生态开放大模型能力和训练底座;而中间层为三个PaaS被集成,钉钉和瓴羊进入产品矩阵,与阿里云平台产品构成三大PaaS被集成;底座则是IaaS云基础设施产品被集成。
而不同在于,在每一层架构上,云厂商都需要提供更高技术含量的服务。
百度副总裁谢广军认为,如果能做到端到端的优化,将会达到最好的效果。他向36氪举例:“分层来说,传统的IaaS,在云上提供了计算存储,但在AI大模型时代,IaaS层还是计算存储网络,但是会有更高要求——比如专门的网络、高密度计算能力,软件层面要能够支撑AI训练和推理、通信加速、算子加速;而在PaaS这层,AI需要完整的MLops工具链来支持开发、管理和运维。”
4月25日,百度宣布企业级大模型平台已启动内测,并发布六大智能应用
市场无疑是巨大的,华为在最近的分析师大会上,就给到了直观对比:到2030年,全球通用计算能力将增长10倍;AI计算能力将增长500倍,云服务占企业应用支出比例为87%。
此前数年,随着互联网发展红利见顶,全球云计算行业也随即走入低潮,从高峰时的超过50%增速,跌至2022年的20%甚至更低。
未来要卖算力,模型和产品是敲门砖
如今,AI给云计算行业带来的变化,已经足够显著。AI大模型正在拆掉移动互联网时期的建立起的资源或业务壁垒——比如搜索、比如云计算,AI大模型能让用户愿意支付较大的成本,以更换服务商。
这让巨头越发惴惴不安。据泰晤士报,因为GPT-4的推出,三星最近正在考虑将其手机、平板电脑的默认搜索引擎从谷歌更改为微软必应,这一决定会让谷歌失去约30亿美金的订单。
大模型对云计算商业模式的最重要影响,是从原先的单纯卖算力,逐渐过度到卖模型能力。以前,卖算力更多是算力和存储空间,差异化较小,用户获取算力后,还自己需要在框架层从0到1构建服务。
但在以后,AI大模型将会是AI服务的基础设施,提供的更多是AI通用能力——如生成文字、图像、音频等等。大模型会作为基础平台,用户在上面开发AI应用,而采购的模型能力,其实也已经包含了背后的云计算资源。
百度CEO李彦宏在36氪专访中也表达了同样的意思:“未来,当人们在购买云计算服务的时候,他看的是你的模型好不好,而不是你底层的算力怎么样,存储怎么样。”
另一个变化在于,未来所有云厂商推出的大模型服务,从第一天起就要有清晰的商业模式。
比如,百度旗下的企业级大模型平台服务,其推理服务调用就将按输入和输出的总字数付费。
MaaS(模型及服务)模式之下,软件开发门槛比SaaS(软件及服务)更低,即使是小企业和个人,也能直接调用这些能力开发软件——从这个角度来看,公有云厂商将会从中受益,短时间内被的AI颠覆的可能性尚小。
但可以肯定的是,AI大模型热潮,会成为新玩家和小玩家的机遇。
国外已出现实际案例。甲骨文是美国的第四大云计算厂商,但由于其硬件优势,甲骨文的机器学习模型计算密集度更高,更适合AI企业用于分析和预测。据The Information,在过去一个月内,因为头部云厂商算力紧缺,甲骨文的模型服务更便宜,机器学习模型运算能力也不错,不少人工智能初创公司转而成为了甲骨文的新客户。
即使是初创公司,如果训练出比云厂商更好的垂直领域模型,或是做出杀手级的AI应用,其商业化将更为容易,甚至能成为AI时代的垂直“新云”。用户对好的大模型服务的粘性,会比云服务更高。
在国内,与甲骨文类似的是字节。
火山引擎在云计算行业是个“新玩家”——在2021年才入局IaaS等基础层,但不少业内人士都对36氪表示,字节是国内AI算力储备最为充足的大厂之一,这为字节对外提供AI算力服务打下了基础。
为了更好地为大模型公司提供服务,火山喊出“自己不做大模型”,而是专注在垂直领域内的需求。
“目前国内有数十家做大模型的企业,七成已经在火山引擎云上。”火山引擎总裁谭待在会上表示。
2023年,将会是云计算毋庸置疑的转折之年。AI大模型是一个巨大变量,也成为云计算商业生态中的一个缝隙——帮助巨头巩固地位,但同时也赋予新生。在厂商们的追逐战中,一个逻辑始终不变:谁离用户最近,谁就掌握未来。
36氪旗下AI公众号
来个“分享、点赞、在看”👇
微信扫码关注该文公众号作者