Redian新闻
>
我们为最“in”大模型,找到了另外一条解题思路

我们为最“in”大模型,找到了另外一条解题思路

科技
金磊 发自 凹非寺
量子位 | 公众号 QbitAI

“in”,是近年来兴起的一个网络用语,通常是in fashion的简称,意指走在潮流最前沿。

随着GPT的爆火,生成式AI正式进入全球科技舞台的中央,大模型也已经成为当下最“in”的话题。

用“百模大战”来形容当下大模型的火热程度一点也不夸张。据目前市场已公布的大模型产品来看,10亿参数规模以上的大模型产品已多达80个。

一些企业更是将大模型视为人工智能的核心,认为这很可能是引领第四次工业革命的颠覆性创新技术,将推动各个行业的变革。

不过大模型已不再是你以为的“大力出奇迹”,它的发展正在迎来一些微妙的变化——

Smaller is Better。

这并非是无中生有,此话正是出自HuggingFace首席布道师Julien Simon。

但纵观大模型(尤其是大语言模型,以下简称为:LLM)的发展,参数体量逐渐庞大似乎成为了一种大趋势,动辄便是千亿甚至万亿的量级:

图源:Information is Beautiful(数据截至2023年7月27日)

那么Simon如此“背道而驰”的观点,又是从何而来?

我们都知道模型的参数体量越大,它们从大量非结构化数据中学习的表现通常就会越出众,但随之而来的一个老大难问题便是需要大量的计算能力。

这也就是为什么现在人们谈及大模型时,往往都绕不开“大算力”的原因。

(甚至连OpenAI的CEO也在为算力发愁……)

因此,Simon给出了新的解法,让大模型“瘦身”(Smaller)的同时还能提高效率(Better)

并且这并非空口无凭,有测试数据为证:

从结果上来看,测试的各种大模型有的被“瘦身”到了先前的一半,但效率反倒提了上来。

更直观一点的,我们可以看下文本回答的效果:

大模型“瘦身”后自然语言对话效果

这便是当下大模型很“in”的一种打开方式。

站在现在这个时间节点,我们也想以《最“in”大模型》专栏的形式,提供给大家两个更in的解题思路:inside intelin practice。以此来对大模型这个科技圈最in的顶流做一次全新角度的解析和展望。

最Inside Intel的创新解决方案

不仅仅是在这一波大模型热潮,自深度学习爆火以来,似乎GPU相比其它硬件来说更受AI圈的青睐。

究其原因,无外乎以下几点:

  • 并行计算能力:GPU可以同时进行大模型训练和推理,加速计算过程。

  • 加速训练速度:在传统CPU上进行大型模型训练非常耗时,使用GPU可以缩短训练时间,加速模型研究和开发。

  • 适应深度学习计算:GPU高度并行的架构在深度学习的计算中表现出色,特别适合处理神经网络的计算需求。

但开发人员往往会小瞧CPU这个“潜力股”。

没错,让大模型发展发生微妙变化的解法之一,正是CPU

例如在上文Simon的例子中,他先是用SmoothQuant这种训练后量化的方法来为LLM“瘦身”:将LLM通常进行训练的16位浮点参数(又名 FP16/BF16)替换为8位整数,以便更容易执行任务,和减少需要的内存。

而后Simon选择实验的CPU,正是英特尔的第四代至强®️ 可扩展处理器,其可在AI推理方面,为大模型的落地部署提供更易获取、应用门槛更低和性价比更高的平台。

但是,如果你还以为英特尔只有CPU能来跑AI的话,那就又错了。

就在上个月,英特尔新鲜出炉了AI专用加速器——Habana®️ Gaudi®️2,专为训练LLM而构建,并为数据中心大规模扩展而设计,同时为深度学习推理和训练工作负载提供更具性价比的解决方案。

重点来了!

在MLPerf最新报告中的多种训练和推理基准测试中,与其他面向大规模生成式AI和LLM的产品相比,Gaudi®️2拥有卓越的性能,甚至可以表现得比GPU更“专业”。

据悉,预计今年9月Gaudi®️2便可支持FP8,在帮助用户提升运营效率的同时,即将迎来更优的性价比:

客观地说,相较于主流大模型硬件平台,CPU虽更容易被获取和部署,但其提供的解法仍会更倾向于那些要求部署和应用门槛尽可能低,同时性价比较高的推理场景;但英特尔已发布的Gaudi®️2和即将登场的其他加速芯片,例如数据中心GPU,则有望实现进一步的补全,进而形成CPU可在主打通用计算时兼顾AI加速,GPU提供通用加速支持,即兼顾科学计算和AI加速,而Gaudi®️ 则能一心一意专攻深度学习加速的一整套异构硬件产品布局,这种布局的意义,就在于会提供更加多样化、更具性价比的解决方案。

就更别提英特尔还会为多种异构硬件产品搭配可以进行统一编程、轻松迁移并能跨异构调度算力资源的oneAPI软件工具包了。

英特尔未来在AI或整个企业计算领域的异构多芯布局,已经在脚踏实地地走向现实。其对CPU和AI加速器等硬件的定向优化,也让大模型出现了更多的可能性。

最in practice的落地实战指南

当然,事实上相比于现有的主流大模型硬件平台,大家对英特尔硬件在大模型上的优化还缺乏了解。本期专栏就将直接上干货,为你手把手带来最in practice的实战指南。

如上文中提到的利用第四代至强®️ 可扩展处理器对LLM进行训练后量化的实验,在本期专栏的第一篇文章中,甚至还直接附上了代码:

启用增强型 SmoothQuant 的样例代码

是不是有一种“开箱即用”的味道了?

同时,本期专栏也非常与时俱进地会以ChatGLM、BLOOMZ、PyTorch minGPT主流大模型为案例,step by step教你实战优化之道。

当然,面对实践中可能会涉及的更加复杂的问题,我们也不仅局限于提供硬件加速指南,而是会考虑到更多维度,例如LLM如何与大数据平台进行对接,以及如何更好地进行数据安全或隐私方面的保护。

例如系列第二篇文章中提到的:将至强CPU平台内置的可信执行环境(Trusted Execution Environment,TEE)类技术——SGX用于为LLM提供隐私和数据保护创新解决方案,就可以更好地保障数据在LLM模型训练和推理过程中的保密性。

最后一点,就像我们前文提到的,英特尔加速AI已经不再只有CPU这一个选项,所以Gaudi®️2虽然刚发布不久,但在本次专栏中也会露面,而且同样是落在实战层面,敬请期待。

专栏中涉及CPU的实战分享,更多是希望帮到真正要在业务中落地应用LLM的最终用户,毕竟想要在更为广泛的行业中普及AI应用,如能充分利用部署更为广泛的、基于CPU的IT基础设施和架构,是更有利于达成降本增效的目标的。

期待这些分享能帮助更多部署了英特尔®️平台、对LLM跃跃欲试的用户,能在第一时间开展相关的探索和实践,让大模型Go to vertical + in practice。

小结

基于行业观察、实战案例,我们也会从中迸发出更多大模型加速的灵感。

如大模型“瘦身”提高效率,定然还会有更多更加优化的解决方案。英特尔为此专门开设了GitHub问题反馈,希望与您共同探讨优化之道:https://github.com/intel/neural-compressor/issues

总而言之,英特尔采用多种处理器和加速器,并配以统一且易用的软件工具来实现优化,已然是为大模型的发展开辟了一条崭新的路径。

这背后的意义,正如HuggingFace的Simon所述:

一家独大,从来不是一件好事。

言外之意很明显了:多元化的蓬勃发展才是长久之道。

本次的《最“in”大模型》专栏,也许仅仅是一个通向多元化未来的开始。

欢迎关注专栏,也非常期待可以和大家深入探讨一波。

点击如下链接回顾本期专栏内容,或点击阅读原文了解更多细节。

最“in”大模型专栏

1

十亿参数,一键瘦身!「模型减重」神器让大模型狂掉3/4

2

保护大模型应用安全,现在不需要拿性能做代价了

3

如何优化ChatGLM-6B?一行代码就行

4

一个简单模型就让ChatGLM性能大幅提升

点这里👇关注我,记得标星哦~

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见 ~ 

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
对话|三个月诞生79个基础大模型,中国到底需要什么大模型?华为率先把大模型接入手机!小艺+大模型,智慧助手智商+++《越来越好》&《向云端》鸡贼看世界之北京篇接入Llama 2等33个大模型,上线Prompt模板,百度智能云千帆大模型平台重磅升级推理1760亿参数的BLOOMZ,性能时延仅3.7秒 | 最“in”大模型一张剧照,费翔杀回来了:62岁无妻无子的他,已经走上另外一条人生大道…中俄为核废水排放指了另一条路,日方根本不敢做,或是怕得罪美国引入33个大模型,百度智能云千帆大模型平台的“破茧时刻”消失4年,67岁费玉清近况曝光:不结婚没孩子,人生走上另外一条路…直播报名 | 数据存储难题有何新解法?我们为你找到了应对之策!一只鼠头引起的一场娱乐液化气爆炸事故的另外一面:气站里的“黑气”一个简单模型就让ChatGLM性能大幅提升 | 最“in”大模型中文在线宣布发布“逍遥”大模型,可一键生成万字小说;谷歌称将保护生成式人工智能用户免受版权索赔丨AIGC日报如何优化ChatGLM-6B?一行代码就行 | 最“in”大模型【父亲节活动】我曾有个家曝OpenAI大模型新进展!将推出多模态大模型,新项目Gobi筹备中百度云上交大模型成绩单:接入42个大模型,月活企业近万家|甲子光年坚持做行业大模型,竹间智能给大模型造了一座「模型工厂」“超人”大哥,找到你了!目前只To B,腾讯云为什么优先发布行业大模型,而非大模型?字节布局大模型,思路有些不同百度华为阿里等入选大模型“国家队”;盘古大模型3.0发布;阿里云推AI绘画大模型丨AIGC大事日报厉害!安省64岁老大爷去偷飞机,结果坠毁并撞了另外2架飞机第二章 文明的产生和发展 (3)十亿参数,一键瘦身!「模型减重」神器让大模型狂掉3/4 | 最“in”大模型训练大模型缺少高质量数据?我们找到了一种新的解决方案大模型变“小”:黑马天启开创AI模型“重度垂直”新思路,入选北京大模型行业应用典型案例百度贾磊:拼语音大模型,走另一条路丨AI·20人实测学而思MathGPT大模型:中小学数学解题正确率有望在全球范围内创造新 SOTA保护大模型应用安全,现在不需要拿性能做代价了 | 最“in”大模型杨丽萍“不雅照”曝光,被嘲晚节不保...:事实证明,64岁的她已经走上了另一条路伊利:数字化实践没有标准答案,但“人”是解题思路大模型帮陶哲轩解题、证明数学定理:数学真要成为首个借助AI实现突破的学科了?
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。