Redian新闻
>
大模型的AB面:厂商讲算力,企业要落地

大模型的AB面:厂商讲算力,企业要落地

科技


算力是可以买到的,但创新的能力是买不到的。


作者 | 周蕾、胡敏
编辑 | 周蕾
   
ChatGPT发布不过半年,全球性AI再造已经拉开序幕,甚至一开场直接进入白热化竞争状态。据不完全统计,国内类似ChatGPT的产品已经有接近40个。

面对这一波浪潮,不少企业已经率先开展行动,将大模型应用到自身业务中。不过,紧接着难题也随之而来,不同厂商之间的大模型,到底应该如何选?怎么评判各家做大模型的实力?


01

市场风向:从「迷算力」到关注「综合体验」

当前,国内市场以“大模型”为名推出的产品虽有约四十款,但大模型领域仍未形成公认的行业标准,供使用者参考研判。

对于企业而言,缺乏评判标准的现状,加剧了他们在面对大模型时的矛盾心理。

雷峰网在与企业交流时了解到,不少企业虽然秉持拥抱新技术的开放心态,但行业鱼龙混杂,市场噪声太大,又让他们不得不更加谨慎对上。而“得算力者得大模型”的观点甚嚣尘上,更是影响了他们进一步接触和使用大模型。

的确,算力焦虑,从大模型走红的第一天起,就伴随着各大厂商甚至整个科技行业,“互联网大厂紧急备货GPU为大模型开路”的传闻一直没有断过。而在上个月,ChatGPT也因需求量太大,一度暂停升级服务,并停止 Plus 付费项目的销售。

但事实上,“得算力者得大模型”这个观点,存在一定片面性。GPU卡数量越多,并不意味着大模型的表现就越优秀、企业使用大模型的效果就越好。

厂商拥有上千、上万张GPU卡,除了“买不起”,还会有“用不好”的问题,如此大规模的集群去做训练,一旦出现bug就很难调整,这对厂商的整体调优服务能力、端到端成本的控制能力,都是一种考验。

在大模型风起之初,企业判断和选择大模型厂商时,算力因素很多时候会被排在第一位,但大模型真正的使用效果和综合体验,是来自于算力、框架、模型、应用构筑的四层架构,相互配合所产生的“化学反应”。

打个比方,如果某个应用上经过调优,在同等算力情况下,性能提高50%,那就意味着算力需求可以降低50%。

企业如果想借助大模型,在业务发展踏上新台阶,需要的不止是智能算力,还需要灵活的框架平台,丰富的大模型体系,以及对于业务来说更加优质的方案。更重要的一点,在四者之间,端到端的适配和优化,这是“既要、也要、还要”的端到端优化的过程。

就好比选择智能手机,一开始人们买手机关心跑分,后来人们发现跑分并不等同于使用体验。大模型也同样如此,算力充足不代表使用体验。

对很多企业而言,目前再接触大模型,已经不再是“了解一下”“尝尝新鲜”的阶段了,不少企业已经意识到,大模型对每个人、每个行业都有结构性影响。

陆奇在前不久的演讲中谈到,未来在大模型之上,将有更多大模型会更多的模型被建立,展开来说有两类:一类是事情的模型,人类每一类需求都有领域/工作模型,其中有结构模型、流程模型、需求模型和任务模型,尤其是记忆和先验;另一类是人的模型,包括认知/任务模型,它是个体的,其中有专业模型,有认知模型、运动模型和人的记忆先验。人基本是这几类模型的组合,律师也好,医生也好,大量领域会有大量模型往前走。

百度等多家大模型厂商都向雷峰网透露,前来接触的客户已经从最开始的CEO层级,变成具体的技术和业务团队,讨论的内容也从天马行空的想象,变成“大模型如何用好”这类更接地气的主题。

他们谈到,企业对大模型调度实际落地需求十分迫切,关心如何才能产生真正有成效的转化,也逐渐开始更关注易用性、安全性、可扩展性等一系列具体的指标。


02

需求解码:低门槛、高效率、强安全

百度大模型落地企业是比较迅速的。

3月27日,也是文心一言发布后的11天,百度云低调举行闭门沟通会,向首批企业客户开启内测,并推出全球首个一站式企业级大模型平台——“文心千帆”,为企业提供包括数据标注处理、再训练微调、大模型压缩、指令(Prompt)自动化、编排功能等大模型推理、微调、托管等服务。

时隔两月,内测进展究竟如何?5月9日,在百度云举行的文心大模型技术交流会上,百度云对外展示了“文心千帆”在企业端落地情况。

据雷峰网了解,“文心千帆”结合不同企业需求,提供公有云和私有云两种部署方式,公有云部署提供推理、微调和托管三类交付模式,而私有云部署提供软件授权、软硬一体、租赁服务三种交付模式。

这些不同的交付模式,可满足不同企业的需求。

于许多企业而言,当前公司内部资深AI人才储备并没有那么充足,再加上近期通用人工智能的火爆,AI人才更是难招,许多大厂是直接重金开卷,招兵买马。

在这种背景下,这些企业在选择大模型开发平台上,会重点关注大模型开发是否低门槛、高效率。

为给有专属模型需求的企业降低模型训练难度,“文心千帆”主打开箱即用,企业无需找大量资深AI人才进行繁琐的环境配置工作,同时从数据处理、模型训练、 到部署服务、 应用集成,每个环节都可以通过简单的界面操作来实施,大幅降低企业使用门槛,提升了模型打磨效率,降低了成本。

此外,对于无需定制专属模型的企业,“文心千帆”提供直接推理的交付方式,企业可直接调用文心一言,一键让业务变得智能化。

除低门槛、高效率外,能否兼容各类大模型的开发与应用也是企业非常关心的问题。

当前大模型赛道并未发展到一家独大的阶段,开源社区也十分活跃,再加上在To B领域,客户的选型决策有时候不只是看技术指标,而是要考虑客情、服务等等,企业往往有多样化的选型需求。

因此,大模型开发平台最好要能适应不同的模型。

据了解,“文心千帆”一方面支持文心一言模型的开发,企业可以直接调用文心一言的核心推理能力,输出推理结果,也可以在其基础上进行微调,得到专属模型。另一方面,对于其他开源、闭源模型,“文心千帆”也提供了同样提供数据准备、数据安全、微调等全套工具链。

当然,安全也是当下企业在选择大模型平台的重要因素。

2022年被称为是“数据安全元年”,包括《数据安全法》在内,国家陆续出台了一系列与数据及其安全保护相关的政策法规和标准规范,要求做好企业数据安全,尤其是党政、金融、教育、电力等重点行业。

为确保数据安全、以及自主可控,“文心千帆”配备了完备的安全机制,来确保模型输入输出稳定,保障数据安全,此外,上文提到了百度云支持私有云部署方式,在私有云交付产品形态里面,企业可以选择软件授权、软硬一体的一揽子方案、以及租赁方案。

“文心千帆”之所以能够具备这么低门槛、高效率、安全等多种能力,离不开百度AI大底座技术支持。

这个大底座将百度多年产业深度实践积累的全要素智算基础设施,芯片、框架、模型、应用核心组件整合到一起,同时通过每一层之间的相互协同优化和适配,能够为企业带来更具性价比的智能算力、自主研发的深度学习框架,端到端的整体支持。

基于四层架构的优势,大模型训练的计算速度、管理和利用计算资源效率、开发效率极大提升。

据百度提供的数据显示,与其他未经优化的架构相比,百度AI大底座在相同的时间内完成的计算量提升了90%以上,资源利率效率提升70%以上,开发人员的开发效率提升100%。

文心一言的迭代也可佐证百度AI底座的能力。在一个月内,文心一言完成4次大技术升级,大模型推理成本降到原来的十分之一或者说性能提升近10倍。

"AI大底座就是要帮助客户从上云,进入到用数、赋智的快车道,极大降低AI产业应用的门槛,提升效率,企业只需要把精力聚焦在场景业务上。"百度集团执行副总裁沈抖说道。


03

产品落地:初结果实,想象空间还在未来

“文心千帆”的首批内测企业涵盖了智能办公、旅行服务、电商直播、政务服务、金融服务五大领域。百度云也旨在从这五大领域入手,先打造出一些行业的样板间。

时隔两个月后的,本次文心大模型技术交流会上,我们已经可以看到许多成果。

比如说金融业,AI已经优化了不少从业者如投研工作者的工作流。过去研究人员写一份投研报告,需要在数据终端查询研报,搜索引擎了解新闻资讯,再利用办公软件处理分析、撰写,整个流程复杂且分散。

但升级后的投研助手产品可直接以对话形式,完成信息归集、观点辅助生成、观点写作、投资决策管理全流程,让研究员的工作重心转移到附加值更高的研究逻辑优化上,显著提升投研工作效率,实现专家经验资产化沉淀。

百度智能云应用产品中心架构师孙珂透露,由于百度拥有整体的科技底座,包含算力、大模型、开发框架和少量的标注数据,在这之上,百度可以实现对资产、对财富、对营销、还有包括对内控合规一系列资源的管控。在这个过程中,能够在零售业务和对公业务上,提供各种各样的创新服务,让金融机构有对客界面更高效的提升,更集约化的框架。

另一个更容易被感知到的场景是旅游业,一般人们选择外出旅游时,都要提前很久做攻略,包括定酒店、定机票,做路线攻略等等。

但现在只需要通过简单的对话界面,输入出行城市,目的地,出行方式,旅游时间等信息,几句话沟通就可以按要求生成一个旅游规划,同时完成机票、酒店的预订。

而在电商行业,直播是当前每家企业不想也不敢错过的风口,但对于一些中小企业来说,随着直播团队人员薪水、设备的价格水涨船高,许多商家养不起专业直播团队。

而现在,企业只需要把商品的信息告诉AI,让AI自动生成多种风格的商品带货脚本,再配合数字人主播,就可以帮企业把货给卖出去。不需要花钱雇主播、撰写话术、花时间培训,有了专业AI直播加持,每个品牌都能7*24小时直播,提升电商销售效果。

“经过度量,它的转化率是无人直播的两倍,有一个人总是比没有一个人去直播它的转化率要更高。”孙珂表示。

雷峰网进一步了解到,已经有超过300家产业里的生态伙伴,在和百度智能云探索大模型在真实场景里的落地,涵盖了工业、金融、政务、运营商、教育等行业。

例如用友,将自身能力与文心一言相结合,形成B端企业管理软件系统智能助手,服务于智能知识分析,财报分析,数据报表分析实践等企业高频的需求和场景。在电信行业国产中间件市场占有率最高的宝兰德,也在测试中将自身的智能运维机器人与文心一言融合,提高了运维效率和自动化智能化程度,可以实现智能化故障诊断,以及智能解决方案推荐。

百度集团副总裁袁佛玉透露,在过去不到两个月时间,百度智能云已经联合产业伙伴深入超过400个具体的场景研发测试,“在其中看到了非常有价值的测试效果,也有一些测试效果还不够理想,但我们正在双向的去努力,去寻找在这个方向最先落地的机会。”

大模型与产业相结合,所迸发的想象力远远不止于此。随着时间推移,毫无疑问将会有更多的企业迎接大模型,为业务带来新的生产力。由此,一场产业升级的风暴即将来临,而百度也已经做好准备。

//

近期热门文章


GPT诸神之战,小巨头如何做大模型?


硅谷NEC Lab往事:将中国企业拽进AI时代的人


王小川官宣百川智能:AGI的终局是什么?

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
上交清华提出中文大模型的知识评估基准C-Eval,辅助模型开发而非打榜只给大模型LeetCode编号,也能解题!大模型表现好是源于对训练数据的记忆吗?请不要迷信大模型只有掌握这项能力,企业才能持续创新增长“变相收购中国企业”?印度提出了新条件:中国手机企业要用印度裔CEO孩子已经成为了一匹脱缰的野马!AI大模型如何在行业实际落地:企业对话场景拥抱大模型之路AI大模型闪聊会:中美顶流AI大模型的碰撞与契机腾讯云公布行业大模型进展;美图推出视觉大模型;华为高管称AI算力将增500倍丨AIGC大事日报投行实习生的B面:2023卷王上岸西门子、毕马威身先士卒,企业数字化变革如何借力AI大模型东风可复现、自动化、低成本、高评估水平,首个自动化评估大模型的大模型PandaLM来了对话李志飞:大模型的关键在于如何把大模型用起来|年度AI对话百度华为阿里等入选大模型“国家队”;盘古大模型3.0发布;阿里云推AI绘画大模型丨AIGC大事日报MLPref放榜!大模型时代算力领域“潜力股”浮出水面:梅开二度拿下世界第一,今年获双料冠军对话中国大模型的最早推行者黄铁军:全球可能只需要三个大模型生态对话竹间智能简仁贤:做大模型不能唱高调,企业需要低成本、平民化的模型产品相约亚布力,企业家这样说→阿里达摩院大模型公开课上新!主讲中文个性化对话大模型ChatPLUG和模块化多模态大模型mPLUG-OwlH-1B面临抽签和裁员压力,促使人们转向EB-5签证,结果更香教科书级数据is All you Need: 1.3B小模型逆袭大模型的秘密第四范式胡时伟:To B 大模型的意义,就是让「好战略」落地为「强执行」华为大模型登Nature正刊!审稿人:让人们重新审视预报模型的未来百模大战拉开序幕,企业该怎么选大模型?|甲子光年重访葡萄牙(5)-王国的书香之城H800国内首发!腾讯云推出大模型算力集群,集群算力提升3倍评估AI大模型实力,别只会看算力市值暴涨10519%,原来全世界搞大模型的企业都在给这位华人打工!咀外文嚼汉字(215)“羴”与“猋”数十家企业参编中国大模型标准;大模型创企获2.5亿美元投资;微软签署数十亿美元AI算力协议丨AIGC大事日报大模型进入「落地战」,腾讯云下手「行业」大模型七绝 球场不是桃花源教科书级数据is all you need:1.3B小模型逆袭大模型的秘密大模型玩家抢购算力,国产GPU还差了一个软件生态|Chat AI大模型的思想钢印:如何让ChatGPT相信水是有毒的?​中文信息处理实验室最新研究揭示虚假信息在大模型中的扩散机制怎么开始学佛(十五)知时知量,傻坐静等
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。