Redian新闻
>
百模大战拉开序幕,企业该怎么选大模型?|甲子光年

百模大战拉开序幕,企业该怎么选大模型?|甲子光年

科技

企业选择接入大模型的根本动力离不开四个字:降本增效。


作者|刘杨楠

编辑|栗子

4月以来,国内大模型市场迎来了真正的百花齐放。

在百度文心一言最先公开邀测后,阿里、京东、华为等互联网大厂,商汤、昆仑万维、出门问问、科大讯飞等AI公司先后发布大模型;毫末智行、知乎等垂直领域的头部企业也发布相应的垂直大模型。

在国际市场,大模型同样热度不减。

神经网络之父Geoffrey Hinton宣布从谷歌离职,只为能更大胆地表达自己对人工智能的担忧;高喊“暂停”大模型研发的马斯克也有了实际动作,成立大模型公司X.AI,并将新计划命名为TruthGPT。

在大模型这条路上,中国再一次走上了带有中国特色的科技发展道路——AI大模型已经在快速深入产业,成为未来构成产业数智化转型新型基础设施的核心要素。

随之而来的一个现实问题是:面对国内各式各样的大模型,想要通过大模型提升业务效率的企业应该怎么选?

此时此刻,行业迫切地需要一套新标准,来作为企业选择大模型服务时的参考。

5月9日,百度智能云在北京举办了文心大模型技术交流会,向到场的百家企业展示文心大模型在产品技术、场景研发、生态建设等领域的最新进展。这已经是百度智能云就文心千帆大模型平台举办的第三次闭门交流会。

会上,百度智能云AI与大数据平台总经理忻舟与百度工程师一起现场演示了如何用文心千帆“教大模型产品做事”:

从视频中可以看出,整个微调过程仅十分钟左右,并且微调后的模型效果明显提升。而这样的微调过程每次大约仅需标注100条数据,且模型能够在类似的问题中产生一定的泛化能力。

文心千帆大模型平台是全球首个一站式企业级大模型平台,能够提供包括文心一言在内的大模型服务,提供开发AI应用的各种工具链及整套环境,还支持各类第三方的开源和闭源的大模型。可以说,文心千帆正在成为一个大模型生产和分发的集散地。

作为国内最早全面布局AI的企业,百度见证了国内AI产业的几度潮起潮落。这一次,百度同样是国内最早布局大模型的厂商。对于未来的再一次定义,百度有着不容置疑的发言权。


1.MaaS时代,什么是大模型服务的衡量标准?

如今,大模型火热之下,MaaS已经成为各大云厂商追逐的热词。

在3月16日百度文心一言的新闻发布会上,李彦宏提出了大模型带来的三大产业机会,其中之一便是会诞生新型云计算公司,其主流商业模式从IaaS变为MaaS(模型即服务)

“大模型时代,客户更多从构建自己的服务架构,去买算力、买云服务,还要看框架是不是方便训练模型,以及对应的模型效果,不只是简单看技术架构的逻辑。”百度集团副总裁侯震宇表示。

回看云计算产业构成,从IaaS到PaaS,再到SaaS,云计算厂商比拼的核心能力都围绕算力展开。

而MaaS时代,在AI驱动一切的前提下,算力转变为云厂商提升AI能力的手段之一,不再是云厂商的核心竞争力。

正如李彦宏所言,大模型改变了云计算的游戏规则——大模型出现前,“算力”是云厂商的竞争焦点;此后,AI能力的比拼将成为云厂商的竞争焦点,AI也将作为根本驱动力,将云嵌入各行各业。

基于行业底层逻辑的改变,大模型市场也需要进化出一套全新的衡量标准,作为市场竞争中的风向标。

在5月9日的技术交流会上,百度也给出了大模型服务的三个评判维度:大模型本身的能力、大模型企业服务的能力、全栈技术积累程度。

为什么是这三个维度?

在ChatGPT火爆初期,国内形成的早期共识是,大模型是“大力出奇迹”的结果,未来得算力者得天下。但随着大家对大模型了解越来越深入,发现GPT系列暴力美学成立的前提,是强大的工程架构能力。

随着模型规模的增大,任何一个工程环节上的细节问题都会影响最终的模型性能。例如如何清洗数据,如何设计模型的网络架构,如何让深度学习框架与模型层相互协同,以及如何更高效地并行计算、持续调优迭代等。

到了实际落地过程中,不同行业、不同场景的需求痛点也会对上述工程环节提出个性化要求。

因此,未来大模型市场将不再是单一维度的较量,而是涵盖了技术、产品、服务与生态的多维度竞争。

其中,技术是大模型服务的根基所在。


2.为什么要强调“四层架构”?

MaaS时代,IT技术栈已经发生根本性变化。

在3月16日的新闻发布会上,李彦宏表示,人类进入人工智能时代,IT技术的技术栈由过去的芯片层,操作系统层和应用层三层架构,转变为芯片层、框架层、模型层和应用层的四层架构。

我们也简单梳理了国内外云厂商在四层架构上的布局情况:

为什么强调“四层架构”?

从ChatGPT的技术构成来看,ChatGPT之所以如此惊艳,离不开上述四层架构之间相互协调,与最终形成的反馈闭环。

英伟达提供高性能GPU,谷歌提供Tensorflow深度学习框架,微软提供Azure云服务,三者作为AI大模型的底层基础设施,支撑了OpenAI在模型层长达8年的摸索。

但GPT模型并不能代表这波AI浪潮的全貌。ChatGPT作为一款基于GPT-3.5模型的超级应用,让所有人看到了以自然语言为中介的新型人机交互方式——对于无数企业而言,这才是此次AI浪潮的核心所在。

OpenAI对公众开放ChatGPT后,用户每一次对话形成的数据都会成为模型迭代的养料。大量的用户数据形成后,OpenAI便能看到真实的用户分布,从而根据用户需求针对性优化模型,提高迭代效率。

总的来看,ChatGPT的传奇,是OpenAI、微软、谷歌、英伟达四方合力的结果。由此看出,大模型的大计算、大参数、高成本,对大模型时代的AI基础设施提出新的要求。

而在这种情况下,百度智能云多年来在AI基础设施上的全栈能力便开始发挥优势。

基于过往优势,百度智能云打造了国内首个全栈自研的AI基础设施“百度AI大底座”,将AI生产全要素,包括芯片、深度学习框架、大模型集于一身,向企业AI开发提供端到端的解决方案。

更重要的是,在框架层和模型层之间,AI大底座有很强的协同作用。

百度智能云云计算产品解决方案和运营部总经理宋飞举例:“大家可能会觉得堆积算力、写好代码、然后进行模型训练,把它跑起来就行了。实际上,在训练过程中会遇到各种各样的挑战,很少有人能够使得一个大模型训练过程在连续一两天内不出问题。”

这种情况下,百度AI大底座的协同作用能够形成平台化的反馈闭环机制,让真实的业务场景反馈在每一层技术架构中得到响应,从而在最大程度上保证训练过程的稳定性与最终的模型效果。

层层拆分百度AI大底座,便能更清晰地看到层与层之间的协同作用从何而来。

为什么一定要强调各层之间的“协同作用”?

一个大前提是,大模型训练需要千卡甚至万卡规模,这是一个多机、多卡并行的过程,通信量、计算量、存储量极大,这大大提高了大模型物理集群架构设计的工程难度。

而百度针对大模型训推过程中的技术难点,设计了一套能够进行端到端优化的物理集群架构。

在这套方案之上,文心一言的推理效率已经提高了10倍。

框架层,是国内较为薄弱的环节。但在大模型训练过程中,框架层是连接算法和底层基础设施的关键环节。

为支持千亿参数模型的高效分布式训练,百度飞桨专门研发了4D混合并行技术,能够结合模型硬件特点,选择合适的并行策略,尽可能提高模型训练效率。此外,百度还通过端到端的系统化工作,尽可能让模型训练过程减少终端,减少不必要的损耗。

最后,在模型层,百度已经在自身的AI大底座上,结合不同场景的特定需求,帮助合作伙伴推出了多个模型。

有了百度AI大底座,企业不再需要把大量成本花在构建基础设施上,而可以像使用水电能一样按需取用,真正实现AI生产全流程降本增效。

目前,在百度AI大底座基础上,大模型训练效率已经有了肉眼可见的提升——千卡加速比达到90%,资源利用率提升70%,开发效率提升100%。

这一点已经在百度文心一言模型的迭代过程中有直观表现。百度之所以能够在全球大厂中首发生成式大语言模型文心一言,并在发布后短时间内快速迭代,正是由于文心一言搭建在文心千帆的工具服务平台上。

不过,完备的技术栈只是大模型生态万丈高楼的地基,真正走到落地环节,还是要考验大模型厂商帮助企业解决问题的能力。


3.企业需要的大模型服务长什么样?

回归实际,如今大模型百花齐放,企业究竟该如何选择大模型服务?

目前,全球对于大模型仍处于早期的探索阶段,尚未形成权威、通用的行业标准。

这种情况下,以终为始地看,企业选择接入大模型的根本动力离不开四个字:降本增效。因此,企业要选择大模型,还是需要从自身真实需求出发。

侯震宇告诉「甲子光年」:“客户不是傻子。我们经历过第一阶段的科普阶段,第二轮再科普发现人家不听了。到后面大模型实际应用落地的时候,你跟客户说这个东西好,就得看真实效果。例如你能否在大模型服务的基础上提供对应的工具,在场景里是否能够带来更好的效果。”

基于全栈自研的技术架构,文心千帆大模型能够更快、更好地解决实际问题。对于这一点,金山办公深有体会。

今年已经是金山办公成立的第35年,他们几乎见证了中国IT产业发展的所有阶段。但这一次对于金山办公而言,是一次不能错过的机会。

将时间拉回新旧世纪的交界处。当时正处dos界面向Windows转型的窗口期,很遗憾,当年金山办公的转型不算成功。用金山办公助理总裁田然的话说,那时的金山办公“差不多丢失了十年”。

但幸运的是,金山办公抓住了移动浪潮的机会,在移动端占下了半壁江山。而这一次的AI浪潮,几乎被金山办公看做是最后的机会。

“这是我们第三次革命,如果我们没有抓住这次机会,我们不会再有下一波革命。对我们来讲,这是必须要打的仗。”田然分享道。

关键在于,金山办公要以什么样的姿态加入战斗。在内部协商后,金山办公的答案是:办公应用。田然表示,金山办公对自己的定位是“做最好的办公软件”,提供最好的办公服务。这一定位下,用户体验是金山办公需要加固的核心能力。

为此,金山办公首先要选定一家大模型合作伙伴。

众所周知,现阶段国内大模型产品需要面对严格的合规审查——产品合规,才能上线。当时,金山办公和多家大模型公司交流了一番,包括百度。

在沟通过后,金山办公与百度双方团队一拍即合,文心千帆提供的端到端优化能力能大大提高模型迭代速度,这一点十分打动金山办公。

近期,双方的沟通已经落实在了具体的产品上。

大模型出现前,金山办公在内部上线了一款基于上一代AI技术的生成类应用,能够生成大纲、PPT等内容,并自动美化。但上线后,员工使用的频次远未达到预期。

后来内部分析原因发现,员工实际生成内容时需要在很大程度上依赖上下文理解。例如生成一份周报所需要理解的上下文内容可能涵盖员工过去一周读过的所有内容,以及与老板的所有互动,甚至包括员工在某一次会议的一段发言——由此形成了一套异构数据。

“生成类产品虽然名叫生成,但有时候更有价值的是理解,是问答,是对一些内容的二次加工。”田然表示。

因此,大模型厂商首先需要将这些异构的知识进行向量化,变成同构的、可被索引的数据。但这一步完成后,如何将数据导入模型,进行预训练、微调,再到能够形成交互,便十分考验大模型厂商的工程能力。而文心千帆提供的模型能力与整套开发工具让金山办公很好地解决了上述难题。

不同企业对大模型服务的需求也有所不同。侯震宇告诉「甲子光年」:“科技属性越强的公司,越容易拥抱公有云,直接在百度智能云上去调用大模型能力;一些大企业有各种各样合规的要求,他们会强调,也更习惯私有化交付。”

而对于不同的需求,文心千帆都能提供相应支持。

目前,文心千帆向客户提供两大交付模式——公有云服务与私有化部署。

在公有云服务方面,将提供:推理(直接调用大模型的推理能力)、微调(通过高质量精标业务数据,高效训练出特定行业的大模型)、托管(将模型发布在百度智能云,以实现更加稳定高效的运行)三种服务,大幅降低企业部署大模型的门槛。

在私有化部署方面,文心千帆大模型平台支持软件授权(提供在企业环境中运行的大模型服务)、软硬一体(提供整套大模型服务及对应的硬件基础设施),租赁服务(提供机器和平台的租赁满足客户低频需求)三种方式。私有化部属能够满足对数据监管有严格要求的企业客户需求。

除模型效果外,部署成本是企业在选择大模型时会考虑的第二大核心因素。

当下,关于大模型的一个热点话题是来自开源的冲击。不少人认为,开源大模型将大大降低大模型的使用成本,降低大模型训练门槛,会对国内的闭源模型形成冲击。

但对此,侯震宇认为,开源并不代表成本低,因为开源模型也绕不开大量GPU。很多企业不一定能够用得起上千张集群卡,也很难用得好,一旦在集群中出现bug,企业很难快速调整反应。

因此,整体端到端的优化才会带来更低的使用成本,包括调用成本、运营成本等。

同时,百度对开源也抱有开放态度。“我们希望更多开源模型能够发展起来,让整个AI市场发展的更加繁荣,只有一枝独秀也并不是特别健康的生态。”侯震宇说。

这一点也已经落实在了整个文心千帆的实际能力上。文心千帆大模型平台不仅提供全套文心一言大模型服务,还支持各类第三方的开源和闭源的大模型,成为大模型生产和分发的集散地。


4.枪响之后,谁是赢家?

毋庸置疑,大模型军备竞赛的发令枪已经打响,竞争态势已经愈演愈烈。

「甲子光年」在此前发布的文章中将市面上的大模型厂商大致分为四类:

第一类,是百度、阿里、华为、腾讯等科技大厂。大厂做大模型的优势有目共睹——他们有钱、有人、有算力,还有强大的规模效应。然而,大厂也往往会受庞大的组织架构和繁杂的业务体系所累,股东利益、市值波动、舆论影响都可能成为大厂的掣肘。

第二类,是王小川、王慧文等明星创业团队。这是资本和媒体最热衷追逐的团队,他们往往抱着义无反顾的决心,怀抱技术理想全力all in。尽管如此,摆在创业团队面前的还有无数的现实问题——如何快速组建一支能打仗的队伍?如何保证源源不断的资金注入?如何快速确定技术与产品路径,尽量少走或不走弯路?

第三类,是来自清华、人大、复旦等高校的研究团队。相比大厂和创业公司,学术团队在资金、算力等硬资源的获取方面更为弱势。此前曾有业内人士表示,过往高校大多以小模型研究为主,很大一部分原因是受算力资源限制。此外,学术成果与产业落地之间的鸿沟也长久横亘在高校团队面前。

第四类,则是科大讯飞、出门问问、APUS等自带落地场景,正在拥抱大模型的“中型企业”。

如果从资源储备来看,大厂无疑是资源最雄厚的一方。尽管大厂发展大模型难免有更多顾虑与考量,但如果大厂能充分发挥自身资源与业务优势,则有可能凭借强大的生态效应,在大模型混战中,抢先拿到话语权。

目前,百度已经在生态建设上做了不少努力。

对内,百度内部的各大业务体系已经开始用文心一言来提升效率。

例如,在百度员工内部的智能工作平台“如流”上,很多程序员会就一些产品或技术难题询问产品经理、研发同事,数量多,频次高。过去获得一个答案平均时间约5分钟,现在如流有了一个文心千帆AI小助手,可以代替同事自动回答各种问题,平均5秒就可以解答一个难题,大幅提升工作效率。

同时,百度智能云的金融行业应用、政务行业应用、智能创作平台、智能客服、企业知识管理、数字人直播平台等六大智能产品系列,将基于文心大模型全面升级,未来将在安全评估完成后上线。

对外,越来越多的企业开始选择文心千帆。

从3月16日到现在为止,已有15万家企业申请接入文心一言。百度集团副总裁袁佛玉表示:“截止目前,已有超过300家生态伙伴参与文心一言内测,在400多个企业内部场景取得测试成效。”

此外, 文心千帆大模型平台面向首批企业客户内测以来,正在与不同领域客户联合研发,在智能办公、旅行服务、电商直播、政务服务、金融服务五大领域打造行业样板间。

MaaS时代,究竟谁能成为时代定义者,目前尚无定论。但从现状看,百度智能云已然领先一个身位。



END.



受微信改版影响,没有标星的朋友可能会错过「甲子光年」的推送或是看不到封面,欢迎各位新老朋友给「甲子光年」点个星标⭐️,以便及时收到我们的每篇新推文。


微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
腾讯大模型交卷:不追求参数,走实用路线|甲子光年硅基智能司马华鹏:“百模大战”不争才是大争,不追风口我们造风口|甲子光年对话Moka李国兴:大模型改造SaaS需要持续渐进式创新,先发者把握先机|甲子光年两个周鸿祎继续厮杀「百模大战」,红衣教主:国内LLM弯道超车还得是多模态百模大战可休矣!李彦宏内部讲话点破AI竞赛关键清华大学曲小波:城市公共出行的终极解决方案是什么?|甲子光年百度华为阿里等入选大模型“国家队”;盘古大模型3.0发布;阿里云推AI绘画大模型丨AIGC大事日报连坐与公务员对话顶级键合技术专家:晶圆键合如何超越摩尔定律?|甲子光年冒雨观看圣帕特里克节游行(多图)2023世界人工智能大会:大模型、机器人和AI芯片的试验场|甲子光年2023中国专精特新企业高质量发展之道:云上智能,专精特新企业高质量发展的必经之路|甲子光年智库李彦宏豪掷10亿寻找下一独角兽,“百模大战”进入应用创新时代诚邀您参与科技投资风向调研问卷填写【送甲子智库2022报告年度汇编】|甲子光年智库百模大战之下,阿里云最在意的还是生态融资千万,结盟软通动力,人大多模态大模型元乘象正在圈地大B市场|甲子光年中国何时迎来数学大师时代?|甲子光年“百模大战”背后,是昇思用三年打造了一个AI大模型“创造营”Q1财报发布,阿里云、腾讯云、百度云谁更欢喜谁更愁?|甲子光年纽约州莫霍克山屋(Mohonk Mountain House),阳光映入曾推出阿尔法狗的DeepMind,为什么没能做出ChatGPT?|甲子光年中国Adobe迎战“百模大战”液流电池,正在储能市场“分庭抗锂”?|甲子光年华为云盘古大模型:下矿坑、测台风、进产线,没时间作诗|甲子光年净利润超1亿元,AIGC第一股要来了?|甲子光年最新一季《锵锵行天下》 - 西湖真美。我发小就一直生活在西湖畔,羡慕死我了。说好退休后去她那儿歇一段日子大模型内卷:2天发了10余款,百模大战开打了吴冠中以一幅画设立了一个奖学基金从单点工具到一体化解决方案,SaaS公司如何实现产品跃迁?|甲子光年大模型狂飙半年,掏出真金白银的投资人是少数|甲子光年​蚂蚁集团透露大模型研发进展 AI “百模大战”再添重磅选手​发布大模型PaLM 2,谷歌背水一战|甲子光年微软绝杀!GPT-4接入Office全家桶,竞争对手们还有后路吗?|甲子光年行业观察 | 百模大战当前,企业如何选择李开复发布“英雄帖”:亲自筹组Project AI 2.0,广召大模型、多模态等顶级人才|甲子光年
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。