行业观察|火山引擎,不做自有大模型的逻辑和打法公众号新闻2023-07-12 10:07火山引擎在中国是最像谷歌云、Oracle这类“挑战者”型的企业。AI浪潮来临,算力、算法、数据都是其优势文| 吴俊宇 编辑|谢丽容经历近半年喧嚣后,大模型狂热正在逐渐回归现实。大模型如何商业化正成为行业更关心的问题。今年5月科技部下属的中国科学技术信息研究所发布了《中国人工智能大模型地图研究报告》。该报告显示,截至5月28日,国内10亿级参数规模以上基础大模型至少已发布79个。当大多数大型科技公司都发布了大模型战略之后,字节跳动的大模型策略是什么,外界十分关注。6月末,字节跳动旗下云业务平台火山引擎,发布了大模型服务平台“火山方舟”,面向企业提供模型精调、评测、推理等平台服务(MaaS,即Model-as-a-Service)。火山引擎的官方口径是,将不会推出自己的基础大模型。不过,这并不意味着字节跳动也不做基础大模型。“字节跳动未来如果推出基础大模型,将会是火山引擎客户之一。”7月初,火山引擎总裁谭待提到对大模型市场的几个关键判断。其一,大模型商业化尚在探索期,真正的落地案例今年四季度后才会出现。大模型的参数门槛至少在百亿级别,未来会发展到千亿甚至万亿。目前,部分企业混淆了算法模型、小模型、大模型的应用案例。其二,未来会有少数几个超级通用大模型,但不会只有这几个,同时还会存在众多中等规模大模型和垂类大模型。企业未来使用大模型,可能会是“1+N”模式。“1”是通过自研或深度合作形成1个主力模型。由于成本和场景复杂多元等原因,主力模型之外,还会有N个模型同时应用。其三,经过良好微调训练的模型,特定工作表现会优于通用的基础大模型。很多行业并不需要非常通用的基础大模型。未来大模型的推理开销会远大于训练开销,精调后的模型会拥有更好的性价比。基于上述判断,火山引擎希望搭好模型平台,让买方、卖方能以更低成本交易。这种思路理论上可以降低大模型使用门槛。也意味着智能算力租用率、消耗量会提升——这是云计算商业模式的本质。大模型被认为给云市场带来了新的增长点。2023年中国云市场变化巨大。电信运营商云营收增长均超过100%,互联网云厂商营收增速已经低于10%,所有企业仍处于营业亏损状态。云市场亟待一个新的增长周期。美国企业软件市场有一条判断企业的法则,叫“Rule of 40”。这指的是,一家健康的企业软件公司,营收增速+营业利润率应该超过40%。2022年火山引擎营收增速、营业利润率高于“Rule of 40”指标。火山引擎仍处于发展早期,但正在缩小与头部企业的差距,并期望依靠大模型进一步缩小差距。两种商业化思路云计算公司的大模型商业化出现了两种思路:一种倾向于垂直整合,一种倾向于平台生态。垂直整合的做法是,云厂商亲自提供基础大模型和AI开发工具,让客户基于自家基础大模型和开发工具生产自己的模型、应用。微软Azure采取了这种思路。目前企业客户在Azure建立大模型有两种选择,一种是选择微软Azure的机器学习平台,一种是选择Azure OpenAI的服务。企业客户虽然可以使用第三方开源大模型。不过,微软最推荐的,仍然是自己的产品。在中国,阿里云、百度智能云、华为云目前也倾向这种做法。平台生态的做法是,平台方搭建模型服务平台,接入多家第三方大模型,并提供模型精调、评测、推理服务。企业客户可以在模型商店自由选择。亚马逊AWS采取了这种思路,亚马逊AWS的机器学习中心(Amazon SageMaker JumpStart)提供了多家第三方大模型产品。企业客户可以根据自身需求选择不同第三方服务商(亚马逊AWS的Titan,或第三方产品Huggingface、Cohere、AI21 Labs、StabilityAI、Pytorch)的不同产品。在中国市场,火山引擎、腾讯云目前倾向于这种思路。火山引擎在6月末发布的大模型服务平台“火山方舟”接入了百川智能、出门问问、复旦大学MOSS、IDEA研究院、澜舟科技、MiniMax、智谱AI等多家AI科技公司及科研院所的大模型。腾讯云虽然尚未接入第三方大模型,但是开放了模型商店,接受未来第三方企业提供面向行业场景的模型应用。这两种思路都只是阶段性考虑,不存在绝对的界限,也不存在绝对的好坏之分。事实上,即使是倾向于垂直整合的企业,在主推自己的基础大模型时,一般也会提供第三方模型。一般情况下,云厂商自有基础大模型通用数据多,模型参数量更大,和自家模型平台兼容更好,效果比第三方大模型更稳定。但第三方大模型有独家数据,在一些行业、场景更精准。比如,海外市场最著名的图像大模型Stable Diffusion同时出现在亚马逊AWS、微软Azure、阿里云第三方模型选项中,被公认为是目前最好的图像大模型。垂直整合的好处是,云厂商在算力、平台、模型三层收入通吃,这在短期内会带来明显的收入增长。微软既卖算力,也卖软件,而且软件利润率比算力更高,因此倾向于垂直整合。微软财报告显示,Azure 机器学习平台的收入连续四个季度(2021年三季度-2022年三季度)增长超过100%。Azure在2023财年三季度(2022年四季度)营收增速为27%,其中人工智能业务贡献了1个百分点的增速。平台生态可见的好处是,容易鼓励第三方大模型容易做大生态,带来更高的算力租用率。火山引擎采取这种思路的逻辑正是如此。采取平台生态策略更多是基于市场趋势判断。谭待表示,多模型的判断和“多云”类似。在供给端,未来大模型生态系统中,会存在几个少数的超大规模的基础大模型、多个中等规模的大模型和更多个行业的垂直模型。在需求端,企业通过自研或者与三方模型服务商的深度合作,形成企业自身的1个主力模型。在这个主力模型外,在不同场景中,企业还会同时应用N个外部模型。谭待解释,火山引擎扮演的角色是,解决计算、安全、成本等通用问题。通过这种方式不断降低大模型的使用门槛,让众多企业可以更加安全、高效使用大模型。一位头部云厂商技术人士对此评价,大模型迭代速度通常只有1年,参数量每年都会大幅度跃升。云厂商与其自己亲自下场做大量大模型,还不如只做一个基础大模型,让其他厂商基于行业、场景提供专业大模型。在谭待看来,这一波智能算力浪潮对火山引擎有好处。火山引擎的差异化优势在于——一是性价比,内外规模足够大;二是差异化,如更理解用户增长;三是船小好掉头。多重考量因素大模型被认为带来了应用开发的新范式,也被称为是“AI商业化”的分水岭。现在摆在企业面前的选择很多。其中包括传统人工标注、人工精调的小模型,包括各大云厂机器学习平台中的算法模型,也包括十亿、百亿参数的大模型,还包括动辄千亿参数的基础大模型。一些企业把机器学习平台上的推荐算法、金融行业私有化部署的模型风控也视为大模型落地案例。其实这是上一轮AI商业化的典型案例。决定大模型商业化速度的,仍是模型效果。在谭待看来,中国通用大模型效率目前普遍和GPT-3.5存在差距。他认为,现阶段大模型的参数门槛至少在百亿级别,未来甚至会逐渐发展到千亿甚至万亿。国内百亿级参数的落地标杆案例今年四季度后才会出现。2016年开始的上一轮AI商业化被认为很低效。一位头部云厂商高管直言,企业研发AI应用时,需要根据应用场景做数据清洗、标注,对模型训练、推理、优化。由于实际产业环境场景碎片化,AI企业不得不做很多繁琐细碎的定制化项目。比如闸机、支付人脸识别,因为光线、环境不同,要对不同数据从头训练、应用适配。上一轮AI商业化计费模式是,人力规模×服务天数。大模型与之本质区别是,在云上按需、按量计费。大模型时代,企业向大模型平台上传数据集,依靠参数规模和通用能力,平台自动完成清洗、标注、建模、推理、优化等环节。过去靠人力的繁琐流程被缩短了。数据量方面,大模型也在快速进化。2022年10亿参数,就叫大模型。如今基础大模型参数动辄上千亿,具备更好的“智能涌现”效果,进而在各场景具备泛化能力。为大模型买单的企业如何使用大模型是另一个问题。谭待的观点是,企业使用“1+N”的多个大模型,或使用基于基础大模型精调、蒸馏、剪裁的模型都被认为是可行方案。企业可以选择“1+N”的原因是,大模型仍在应用早期,商业化尚未完全跑通。此外,大模型技术迭代速度快,并没有哪家大模型遥遥领先。“企业很焦虑,又怕错过,又怕乱投入”,谭待解释,因此暂时可以“让子弹再飞一会儿”。企业不用把业务绑定一家大模型,可以按业务场景需求,择优选用不同的模型。在谭待看来,多模型部署、管理成本不高,只需要提供标准接口。企业可以比较不同模型的优势、价格。比如知识管理用A模型、内容推荐用B模型、代码管理和生成用C模型,其他业务再用D模型。也有云计算技术人士对这种模式的效率有所疑虑。但该云计算技术人士同时认为,过去“多云”管理成本偏高,企业仍会因为议价权等因素选择多云,大模型可能会重走这条路。成本和效率确实是个痛点,国内多家云厂的共识是:大部分行业目前暂时不需要直接使用千亿、万亿级通用基础大模型。这既不经济,也无法带来最佳效果。资料来源:微软研究院,BioGPT和其他模型的效果比较基于基础大模型精调、蒸馏、剪裁的模型被视为可以取得更好的应用效果。比如,微软研究院2022年11月论文显示,微软基于GPT-3推出了仅有15亿参数的生物医学模型BioGPT-Large。该模型却有比1750亿参数的GPT-3有更高准确度。未来企业细分领域积累的数据集会成为宝贵资产。基于这些数据集不断持续训练和精调会让模型效果更好。无论是多模型,还是使用基于大模型精调、蒸馏、剪裁的模型,核心考量因素都是性价比。大模型算力成本分成训练、推理两部分。IDC在2022年12月报告显示,中国AI服务器训练负载将不足40%,推理负载将超过60%。也就是说,企业建立模型的训练成本只是前期投入,未来日常使用模型的成本才是大头。大模型推理成本通常受参数规模、精度影响。企业使用经过良好微调训练的模型,有助于大幅降低未来的推理成本。中国大型政企市场目前的偏好,还是希望部署私有化大模型。国内政务、金融、电信、制造等领域部署AI模型的做法是,采购数百枚GPU,进行算法精调、软件定制,总包价格在2000万元左右。部分企业希望加大投入开启二期工程,用这种方式部署大模型。谭待表示,大模型太烧算力,私有化部署的成本很高。如果顾虑安全问题,企业可以通过专有云的方式来解决。如果小模型能够高性价比解决问题,企业也可以使用小模型。火山引擎的打法今年是字节跳动做云的第三年,承载字节云战略的火山引擎也是中国云市场“最年轻的云”(详情见7月29日报道,《最年轻的云,字节跳动为什么不着急?》)。目前,火山引擎不仅覆盖IaaS、PaaS、SaaS,产品线也已经非常完整。IDC今年4月数据显示,2022年下半年中国公有云(IaaS+PaaS)市场前五强分别为阿里云(31.9%)、华为云(12.1%)、天翼云(10.3%)、腾讯云(9.9%)、亚马逊AWS(8.6%)。火山引擎市场份额暂时在五强之外,但大模型被外界认为是火山引擎缩小差距的机会。在海外市场,谷歌云、Oracle同样在摩拳擦掌,把新一轮AI浪潮视为挑战亚马逊AWS、微软Azure的机会。大模型会带来巨大的算力消耗。在算力之上,大模型还正在降低应用开发门槛,会带来软件生态的变化。这意味着大模型将为云计算市场带来市场增长和竞争变量。不做大模型,更意味着鼓励第三方大模型容易做大生态,带来更大的算力消耗、算力租用。尤其是Oracle,它把智能算力作为差异化打法。Oracle与英伟达结成了战略同盟,不仅在大规模采购GPU算力,而且用低廉的GPU算力价格争夺领先者的市场份额。目前,Oracle Cloud全球市场份额约为2%。2023财年(2022年3月-2023年3月),Oracle的IaaS营收14亿美元,增速高达77%。远超过亚马逊AWS、微软Azure的10%-30%。近两个季度,其他国际云厂商营收增速下滑时,Oracle Cloud营收增速还在提升。火山引擎在中国是最像谷歌云、Oracle这类“挑战者”型企业。作为“挑战者”,火山引擎的打法是搭建模型平台,提升智能算力租用率、消耗量,以此带来云的增长。字节跳动本身就有智能算力的基因。火山引擎的算力、算法、数据也被认为有优势。目前市场判断是,GPU算力资源储备最丰富的就是阿里、字节、腾讯三家公司。字节跳动本身就有抖音、今日头条等业务,其起家靠的就是推荐算法,算法需要依靠大量GPU算力做训练,无论是视频推荐、信息流推荐都需要消耗大量GPU算力。火山引擎背靠字节跳动具备算力优势。算法、数据能力无法直接衡量,但字节跳动的抖音等To C业务依靠算法、数据获得了远超同行的流量和规模。作为国内互联网公司前三强,字节跳动被认为不可小觑。至于大模型服务平台,在谭待看来,更重要的是把平台搭好,让买方和卖方能够以更低成本交易。他说,大模型平台通常会收取两种费用,模型服务费和平台服务费。火山方舟平台相当长时间内将不收服务费,火山引擎还采取了很多手段优化成本,如利用技术优化基础模型的成本。也包括利用云的规模效应,如用错峰、训推一体把提升整体利用率提、降低单位价格。降低大模型使用门槛意味着火山引擎的智能算力租用率、消耗量会提升——这也是云计算这种商业模式的本质。一份启明创投研报显示,亚马逊AWS的AI算力,如果客户全年无休地租用毛利率可达80%,若客户租用率不足50%毛利率将仅为60%,相当于亚马逊AWS的整体毛利率。美国企业软件市场有一条判断企业的法则,叫“Rule of 40”。这指的是,一家健康的企业软件公司,营收增速+营业利润率应该超过40%。这个法则常被用于评估成长期的SaaS企业。谭待表示,火山引擎作为云公司,不能简单套用这个法则。不过,2022年火山引擎的营收增速、营业利润率高于“Rule of 40”指标。公司处于健康的高增长状态,且毛利水平在提升。复盘三年来的节奏和变化,谭待说,应该在成立最初就做IaaS的云服务。火山引擎最大的变化是,在云市场初步站稳了脚跟,市场口碑正在变得更好,“不再会有人把我们混淆成火山视频”。中国的云市场渗透仍然较低,火山引擎还有很大的空间。2022年7月,谭待谈到,组织不要过度设计,“几十亿的盘子不能按照你那几百亿的规模进行设计。”火山引擎的规模在变大,2023年谭待仍然坚持“组织不要过度设计”这个判断。火山引擎正在缩小与云巨头的差距,并期望依靠大模型进一步缩小差距。微信扫码关注该文公众号作者戳这里提交新闻线索和高质量文章给我们。来源: qq点击查看作者最近其他文章