Redian新闻
>
长城汽车携手科大讯飞:探索首个汽车产业知识大模型|甲子光年

长城汽车携手科大讯飞:探索首个汽车产业知识大模型|甲子光年

公众号新闻


AI大模型正在加速渗透传统产业。


编辑|栗子‍‍


AI一路狂奔,距离ChatGPT诞生不过一年,中国就诞生了64个大模型,累计大模型数量达到130个,超过美国114个。


在通用大模型排位赛如火如荼进行的同时,围绕AI应用的行业垂直模型赛跑也已经陆续拉开帷幕。最近结束的联合国大会上,马斯克提到中国有潜力成为人工智能领域最领先的国家,也应该是看到了中国在大模型的应用层建设的徐徐铺开。


“AI定义汽车”概念,正在被汽车业界关注并重视,这其中,就不乏自主车企佼佼者长城汽车。


在刚刚过去的1024开发者节,长城汽车与科大讯飞达成了备受瞩目的战略合作协议。




1.长城汽车与科大讯飞强强联手意欲何为?


10月24日,长城汽车股份有限公司与科大讯飞股份有限公司签署了产业大模型及知识大脑战略合作协议。


图片来源:企业提供‍‍


长城汽车作为中国主要的汽车制造商之一,凭借哈弗、WEY、坦克、欧拉、长城皮卡五大整车品牌在各细分车型领域的市场持续渗透和强势发展,近年来在企业数智化转型推进上不遗余力,围绕数据一元化数智化战略核心,推进端到端流程变革等并取得阶段性的成果。


而科大讯飞的星火大模型,也有较深厚的的技术积累和应用案例。在1024发布会上,科大讯飞迭代推出星火认知大模型V3.0,根据国务院发展研究中心的国研经济研究院的横评报告,星火认知大模型V3.0综合能力超越ChatGPT。


两者的强强联合打造的汽车产业首个知识大模型,将给长城汽车带来什么样的变化,隐含了什么样的挑战,又将为汽车行业的未来带来什么样的想象空间?




2.合作内容围绕:AI大模型、企业服务、知识中台等


根据本次签署的战略合作协议,长城汽车与科大讯飞将在AI大模型、企业服务、知识中台、数字化应用等方面展开深度合作,助力长城汽车搭建产业首个知识大模型—长城汽车知识大脑。


何为知识大模型?


AI大模型是“大数据+大算力+强算法”结合的产物,也被视为一个凝聚了大数据内在精华的“隐式知识库”。它包含了“预训练”和“大模型”两层含义,即模型在大规模数据集上完成了预训练后无需微调,或仅需要少量数据的微调,就能直接支撑各类应用。基于通用大模型,每个行业和每个企业都可以进一步去打造自己的垂直模型,增加其垂直领域的经验,知识和能力。


那么长城汽车的知识大脑,其实就是基于长城企业知识的AI大模型系统,结合长城汽车海量知识,训练企业级的知识大模型。


长城汽车知识大脑通过盘活企业内文档、数据、图片等各种形式的知识,辅助业务人员决策、研发工程师的设计工作和编程工作,并构建一套从知识生产、治理、学习、应用等完整闭环,实现大模型的自主学习,自我成长;另外长城构建了从数据、算力、算法、应用的一个完整的业务服务体系,结合长城各场景数据,迭代长城垂域大模型,使模型与领域适配的性能不断增强、范围不断增加,并通过建立企业专属知识库,以可信可靠的数据和知识,提高大模型输出的准确率。




3.长城汽车知识大脑将全面赋能“研、产、供、销、服、管”全链条


据长城汽车相关人员介绍,长城汽车知识大脑可以对“研、产、供、销、服、管”全链条进行升级。


以研发领域企标知识问答为例,长城汽车知识大脑可以实实在在地解决企业在研发供需对接中的“低效”问题,提升知识共享效率,加快产品研发进程,以自然语言交互的方式为内部员工实现从“人找知识”,到“知识找人”。而智能汽车端的脱敏数据则可以借助长城汽车知识大脑辅助优化汽车产品的研发设计和工艺。


再以售后为例,假如汽车用户遇到了汽车故障和问题,4S店的资深技术工程师会来检测问题,处理问题。目前汽车行业的零部件、软件功能都在快速迭代,如何让4S店技术工程师能及时熟悉每个车型迭代信息,以提供专业而优质的服务?


长城汽车知识大脑可以充当技术工程师的助手,这位助手可以轻松消化完海量或者是随时更新的内容,给工程师提供最稳妥和贴心的信息参考及指导意见。


那么,把场景放到销售和客服,长城汽车知识大脑又如何辅助业务人员工作?


长城汽车知识大脑对于汽车随时更新的销售政策了如指掌,对于汽车每个参数,型号,价格,颜色甚至这个颜色的灵感来源可能比所有销售人员记得都清楚,而且表现稳定,那么汽车销售就不再需要把精力放在记忆和讲解这些标准化的内容上,而是可以把焦点放在用户的洞察和销售策略上了。


图片来源:企业提供


以上这些,都是长城汽车知识大脑可以大显身手的场景,可以预见,其将能很大程度的提升“研、产、供、销、服、管”全链条的效率和专业化水平。


当然,以上提到的这些更多是知识大模型在企业内部运用的价值,知识大模型在提升用户体验上也有很多释放价值的场景,譬如说自动驾驶、车内娱乐系统、远程故障检测、智能交互等等。




4.大模型的局限和特长,长城选择了聪明的切入点


事情的另一面是,自然语言大模型目前也有其明确的局限性,语言大模型目前并不是为了完成任务而生,它的运行机制是根据既有知识和上文推测下一个token,它更擅长知识的宽度,在综合能力上的表现比人类出色,但在知识和思考的深度上,跟长期浸淫某个领域的专业人才相比,是有距离的。


所以长城汽车把大模型用到了企业知识领域,是一个很聪明的做法,因为汽车是一个非常复杂的产品品类,而整个汽车产业链的数据量和垂直知识量也非常惊人,靠人脑习得和记忆效率很低,那么使用大模型能很好的激活这些垂直数据和知识,来为“研、产、供、销、服、管”全链条上的员工服务,就可以大大提升各场景里员工的工作效率,甚至可以通过数字员工+人类员工的搭配,让专业人士把通用能力交给AI来提供,自己更专注于专业能力和专业服务的提供,各施所长,率先展开未来企业的工作图景。




5.新的竞技场,新的挑战和预期


知识大模型一方面具有巨大的潜力,另一方面其应用也面临一些挑战和问题,包括数据安全、算法偏见、成本高昂等。据悉,长城汽车和科大讯飞此次合作,也将基于安全合规前提下,共研共创,确保合作能够顺利进行并取得预期效果。


在这个新的竞技场,车企的内部也会有诸多的问题需要解决,譬如说企业各部门的数据孤岛如何进一步打通,如何把有益的个体经验线上化、知识化,如何让全链条中各个场景最懂业务的员工能参与到垂直模型的训练当中.......这些都是长城汽车以及其他开拓者们需要考虑的问题。


长城汽车与科大讯飞的合作释放了多重信号,预示着汽车行业开始以自己的行动,为自然语言大模型在垂直领域的应用,做出更多有益的探索。通过深度合作,长城汽车和科大讯飞不仅可以提升各自的竞争力,还可能为整个行业树立新的标准和期望。


(封面图来源:拍信创意)





END.


点击文末“阅读原文”

进入「甲子光年」官网

了解更多精彩内容




微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
毛利率首超特斯拉,但比亚迪还有一场硬仗|甲子光年深度对话长城汽车杨继峰:大模型不是车企的杀手锏|甲子光年中关村科金发布国内首个企业知识大模型,助力企业业务创新增长大模型热潮下的实习生:人均985?却在大厂“打标签”|甲子光年利用视觉大模型,虹软引发商拍市场一场豹变|甲子光年“氢弹之父”爱德华·泰勒:与奥本海默不对付的一生|甲子光年宿华辞任快手董事长;科大讯飞:华为处理器可对标英伟达 A100;英特尔:2025 发展一亿台 AI PC | 极客早知道旅美散记(03):美国欠中国很多钱?菜园小记百度云上交大模型成绩单:接入42个大模型,月活企业近万家|甲子光年开源与开放,阿里云的大模型解法|甲子光年大模型落地,百度智能云的关键一步|甲子光年红色日记 12.16-31大模型要落地产业,提高性价比是关键|甲子光年腾讯的大模型价值观:实用主义|甲子光年2023中国智能矿山行业研究报告|甲子光年智库矿山经营模式生变,无人驾驶蓄力“加速”|甲子光年中国新能源汽车成为德国慕尼黑车展话题焦点;科大讯飞星火大模型上线;比亚迪8月销量274386辆再创新高……望繁信科技发布数字北极星3.0,为中国重新定义流程挖掘|甲子光年百川智能发布Baichuan2,王小川:中国企业用LLaMA2的时代过去了|甲子光年被低估的河南,正闪耀的科创星火|甲子光年这届慕尼黑车展,“Made in China”含量过高|甲子光年混元大模型姗姗来迟,腾讯为什么不着急?|甲子光年AI Agent+to B,下一个入口级平台机会|甲子光年这场在河南举办的科技大会,干货满满!|甲子光年从AI玩具到AI工具,钉钉大模型改造的200天|甲子光年2008春 欧洲印象 7 梵蒂冈“充电10分钟,续航400公里”背后的焦虑与隐忧|甲子光年对话科大讯飞:不赚钱是 ChatGPT 的问题,不是大模型商业化的问题科大讯飞联合华为打造自主创新的大模型算力底座;Redmi Note 13系列手机新品正式发布|绿研院日报优等生归来,谷歌最强大模型Gemini能否打败GPT4?|甲子光年大模型时代,如何搭建数据的“智能化流水线” ?|甲子光年讲几个圣人的故事(1)——Giuseppe Moscati:穷人的医生在心脏里“撑起一把伞”,世界最小介入式人工心脏如何诞生?|甲子光年被干掉的Lightning接口,曾让苹果每年躺赚百亿|甲子光年
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。