Redian新闻
>
AI的大模型时代 ≠ 只有大模型的AI时代

AI的大模型时代 ≠ 只有大模型的AI时代

公众号新闻
金磊 发自 凹非寺
量子位 | 公众号 QbitAI

什么样的技术能经历时间洗礼还历久弥新?

答案或许可以归总为一个“三部曲”般的规律——兴起发展大规模应用,外加这个过程再一次演进式的迭代。

以史为鉴,引领第一次工业革命的是蒸汽机,当它演进成为内燃机并开始普及时,第二次工业革命的颠覆者——电能本身以及与它相关的各种设备正处于初创期,而在电力设备走向微电子的迭代革新时,各种燃油引擎还在持续改良和普及中。

从这个规律来看,大语言模型(简称LLM)出现后虽然霸占了所有与AI相关的关键词,吸引了所有人的注意力,但这并不代表“LLM之前无AI”。

在大模型出尽风头的同时,此前以决策为特长的老一代机器学习应用,以及侧重感知能力的“传统”深度学习应用也没闲着,它们正走过喧嚣的青春期,步入稳扎稳打的实战阶段。

何以为证?

某芯片大厂就推出了一连串的AI实战手册,分别锁定制造与能源、医药、金融、交通与物流,以及教育行业的AI实践。

在今年更新的物流交通和医疗健康AI实战手册中,就记录了很多已经或正在落地的AI应用,及如何将它们顺利部署和充分释放其性能加速潜力,当然还有它们在一些耳熟能详的头部企业深入一线的应用实例。

所以,AI不是只有大模型。AI的大模型时代也 ≠ 只有大模型的AI时代。

成熟的AI,早就已经上岗了

或许你还不敢相信,现在哪怕小小的快递背后,都已经有AI技术在加持了。

没错,而且近乎涉足了物流全流程:下单、发货、分拣、转运、配送……AI现在统统都要“管一管”。

以经典的OCR(光学字符识别)技术为例,它在物流“技术界”的地位可谓是举足轻重,大幅提高了工作效率。

比如发货时的寄件人填报地址、身份信息,电商仓库核对出货的货品信息,都可以借助OCR,“啪地一下”,实现一键录入。

随着AI技术的愈发完善和应用的加深,这种速度做到了“没有最快只有更快”。

我们熟知的韵达快递就是如此,在三段码OCR识别过程中,它原本希望AI能将OCR识别的准确率达到95%。

结果现在的AI却给韵达“上了一课”,不仅准确率直接飙到接近98%,甚至时间也给“打了下去”:从130ms降至114ms。

性能测试结果基于韵达于2022年10月进行的测试

而且OCR识别还仅仅是AI涉足物流行业的小小一隅,一张图来看感受下它现在所起到的power:

嗯,AI如此all in,怪不得国内物流的速度都要起飞了呢。

不过朋友,这还仅仅是AI加速千行百业的一个案例,其实我们现在每天的出行,同样也是充斥着AI的“味道”。

例如AI视频分析技术,可以针对高速公路上的路况做到实时地分析。

不论是车流流量监控、车辆车牌识别,亦或是事故预警等等,AI可谓是将一切尽收眼底。

如此一来,便可以有效且精准地对路面状况做到把控。

再如机场,在AI技术加持下的摄像头,也可以细粒度识别航空器、车辆、人员,以及违边等情况,这样便对飞行区域的安全提供了一定的保障。

……

从以上几个小小用例中不难看出,“成熟”的AI,或者说几年前那些当红明星类的AI应用看似风光不在,但它们实则已深入到我们生活中的方方面面,并且主打的就是一个“节支增效”。

那么如此“节支增效”背后,到底是怎么做到的?

不卖关子,直接上答案——

提供帮助的正是英特尔的平台,特别是至强®️ 可扩展处理器。同样,我们前文所指的某芯片大厂也是英特尔,给出多个行业AI实战手册的还是它。

但解锁如此能力的,可不仅仅是一颗CPU这么简单,而是有英特尔软件层面上的优化加成;换言之,就是“软硬一体”后的结果。

简单归结:至强®️ 可扩展处理器及其内置的AI加速器,以及OpenVINO™️ ,oneAPI等一系列AI框架和优化软件打辅助。

当前影响AI应用性能的要素无非两个:算力和数据访问速度。

目前最新的第四代至强®️ 可扩展处理器的单颗CPU核数已经增长到最高60核。而在数据访问速度上,各级缓存大小、内存通道数、内存访问速度等都有一定程度的优化,另外在CPU Max系列中还集成了HBM高带宽内存技术

此外,在CPU指令集上也做了优化,内置了英特尔®️ 高级矩阵扩展(英特尔®️ AMX)等硬件加速器,负责矩阵计算,加速深度学习工作负载,堪称CPU加速AI应用的C位。

它有点类似于GPU里的张量核心(Tensor Core)。

AMX由两部分组成,一部分是1kb大小的2D寄存器文件,另一部分是TMUL模块,用来执行矩阵乘法指令。它可同时支持INT8和BF16数据类型,且BF16相较于FP32计算性能更优。

有了AMX指令集加持,性能比前一代至强®️ 可扩展处理器内置的矢量神经网络指令集VNNI提升达8倍,甚至更高。

除了核心硬件平台外,实际情况中帮助这些行业实战AI应用落地的,还有一系列英特尔“亲生”但不“私享”的AI软件工具。

例如前面提到的OCR加速就离不开OpenVINO™️ 的优化,它删减了很多训练部分所需的冗余计算,主要支持推理部分。

而且也是专门针对英特尔硬件打造的优化框架,只需5行代码就可以完成原有框架的替换。

用户可以针对不同业务场景,来优化OpenVINO™️ 运行参数。

这样一套软硬件组合拳打下来,英特尔不仅充分释放了CPU计算潜力,而且在实际的推理场景中也实现了近乎GPU的性能,同时还有成本低、门槛低、易上手等附加优势。

然而,这些仅仅是已经成熟上岗的AI技术在英特尔®️ 平台得到的优化,英特尔的能力还远不止如此。

这就要说回大模型了。

当红大模型,也在被加速

目前大语言模型正被全球各大科技公司竞相追逐,毕竟现在科技圈都将它视为未来发展的趋势所在。

虽然相比那些成熟的AI技术和应用,它距大规模落地还有段距离,但其技术领先性不容置疑,乃至“老一辈”的AI应用也有望在与它结合,或被它改造后重焕新生。

英特尔作为基础算力输出者和应用性能加速器,同样在这场你追我赶的竞技场中未雨绸缪,早有布局。

首先,大模型再先进,也需要有更多人用上它,才可充分变现其价值。要想“玩转”它,在其庞大的体量面前,成本便是一个老大难的问题。

因此,英特尔就祭出了一款增强型的“减(量)重(化)神(工)器(具)”,可以让一个十亿参数的大语言模型瘦身3/4,增强其准确性,还能有效地提升大模型在英特尔®️ 平台上的推理性能。

具体而言,所用到的是SmoothQuant技术,英特尔将其适配到自己的平台,并实现其增强。此方法已经整合至英特尔®️ Neural Compressor。这是一个包含量化、剪枝(稀疏性)、蒸馏(知识提炼)和神经架构搜索等多种常用模型压缩技术的开源Python库,它已经支持多款英特尔®️ 架构的硬件,并且已经兼容TensorFlow、PyTorch、ONNX Runtime 和MXNet等主流框架。

其次,在硬件层面上,英特尔也有所发力。

例如最近大火的ChatGLM-6B,其借助第四代至强®️ 可扩展处理器内置的英特尔®️ AMX,让模型微调计算速度得以大幅提升;利用至强®️ CPU Max系列处理器集成的HBM,满足大模型微调所需的大内存带宽。

英特尔® AMX 技术架构

除了CPU,英特尔还有专用的深度学习加速芯片Habana®️ Gaudi®️2 ,其能在单个服务器内部署8张加速卡(称为Habana处理单元,即Habana Processing Unit,简称为HPU),每张卡内存高达96 GB,可提供足够的空间来容纳大模型。

因此即使是BLOOMZ这样拥有1760亿参数的千亿级大语言模型,经英特尔优化后也能将性能时延控制在3.7秒。对于参数量为70亿的较小模型BLOOMZ-7B,在Gaudi®️2的单设备时延约为第一代Gaudi®️ 的37.21%;而当设备数量都增加为8后,这一百分比进一步下降至约24.33%。

BLOOMZ 在 Gaudi®️2 和第一代 Gaudi®️ 上的推理时延测试结果

而后在软件层面上,针对像ChatGLM这样大受欢迎的大语言模型,英特尔还可以通过为其创建 OpenVINO™ stateful模型来实现优化:压缩权重以降低内存带宽使用率,提升推理速度。

这便是英特尔“软硬一体”打法在大模型应用上的直接体现了。而且硬件还不再仅限于CPU,更是有可在训练和推理性能上都可与GPU比肩,在性价比上馋哭大家的Gaudi®️ 

最后在安全方面,英特尔也是做到了“鱼与熊掌兼得”:基于英特尔®️ SGX/TDX的可信执行环境(TEE)可为大模型提供更安全的运行环境,还不需要拿性能做交换。

这便是英特尔在AI大模型时代中的“加速之道”了。

还会带来怎样的变革?

纵观AI技术的发展之路,不难发现英特尔在其中履行着一条非常清晰的准则——用起来才是硬道理。甚至只在数据中心和边缘中用都不够,最好每个人的每台电脑,每个信息终端设备都有独立加速AI应用的能力才能“芯”满意足。

因此英特尔已将创新使命调整为:在各种硬件产品中加入AI能力,并通过开放、多架构的软件解决方案,推动AI应用的普及,促进“芯经济”的崛起。

英特尔的“加速之道”不仅是让技术更快落地和普及,更是要以用促用,以用促新,以用促变,为下一世代的技术变革埋下伏笔。

那么英特尔这条路上是否有一个终极目标?

或许正如Intel Innovation 2023上不断重复和强调的:

让AI无处不在(AI Everywhere)。

更多《英特尔平台上的行业AI实战与大模型优化》相关内容,可扫描下方海报中的二维码获取。点击原文链接,阅读英特尔《最“in”大模型》专栏的所有文章。

—  —

点这里👇关注我,记得标星哦~

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见 ~ 

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
科研上新 | 第2期:可驱动3D肖像生成;阅读文本密集图像的大模型;文本控制音色;基于大模型的推荐智能体生物医学大模型时代三位「盗火者」,窥探生命宇宙的边缘丨GAIR 2023中国液冷数据中心第一诞生!大模型时代需“冷平衡”一下梅花创投吴世春:如果大模型时代的“张一鸣”很贵,我肯定不投NVIDIA高通英特尔AMD齐聚,近30家AI芯片与算力企业交锋,大模型时代首场AI芯片盛会9月开幕路特斯机器人CEO李博:大模型时代的智能驾驶生产力工厂大模型时代,如何评估人工智能与人类智能?汤道生的下一场战事:大模型时代的产业「智能化」升级战怎么打?曹晟:大模型时代,跨境电商如何用AI提高广告转化?丨GAIR 2023QCon北京2023 参会见闻:大模型时代的技术人成长知识产权、隐私和技术滥用:如何面对大模型时代的法律与伦理挑战?大模型时代,「幕后主力军」数据中心走向何方?NTU华科等最新研究:全自动化「提示越狱」,能打败大模型的只有大模型!登安全顶会NDSSWAIC 2023 | 百度吴华:大模型时代的 AI 原生研发模式大模型时代,腾讯云打造了这样的超级底座揭秘大模型时代背后,那些平凡的天才们红色日记 6.26-6.30上海交大梁晓峣:疯狂的大模型时代,开源GPGPU平台为国产AI芯片企业谋出路丨GACS 2023阿里云林伟:关于大模型时代 AI 工程建设的思考丨GAIR 2023黄学东:大模型时代需要注重「三个臭皮匠」的联合能力丨GAIR 2023如何快速实现大模型落地?5小时get大模型时代实战密码!科研上新 | 大模型推进科研边界;大模型的道德价值对齐;优化动态稀疏深度学习模型;十亿规模向量搜索的高效更新严睿:大模型时代下的对话式 AI 发展丨GAIR 2023天气越来越奇怪了Byzer,一种大模型时代的SQL 编程语言|QCon大模型时代的人机关系:不要温和地走进与AI共生的时代白宫拒港特首赴美,习将如期参会这,就是大模型时代的生产力国产手机发力挺进AI大模型时代大模型时代的程序员:不会用AIGC编程,未来5年将被淘汰?大模型颠覆研发模式:字节跳动是如何在单元测试中落地大模型的?《新康定情歌》&《夜太黑》美好文勇刚:大模型时代,我们需要怎样的数据中心?丨GAIR 2023大模型时代,来外滩大会解锁图智能前沿技术
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。