Redian新闻
>
安卓手机上跑15亿参数大模型,12秒不到就推理完了

安卓手机上跑15亿参数大模型,12秒不到就推理完了

科技

机器之心报道

作者:泽南、杜伟

生成式 AI 上端侧,要用真正的技术。

早晚会有这一天,但它还是比想象来得早了一些:大模型在手机上运行的预言被实现了。



上个月的计算机视觉学术顶会 CVPR 上,生成式 AI 成了重要方向,高通会议中展示了一把未来有望成为「主流」的 AI 应用:用手机跑大模型 AI 画图。


CVPR 是 AI 领域最负盛名的重要会议,我们曾在其中见证过人工智能的几次重要突破,今年在获奖和入围的论文中,既有通用大模型,也有 AI 画图的研究,可谓一下进入了生成式 AI 的新时代。



在 CVPR 2023 上,高通共有八篇论文被主会议收录,并行的展示覆盖生成式 AI、计算机视觉、XR 和自动驾驶汽车等领域的理论创新,以及应用方向。


在这场最先进技术的碰撞中,有不少令人期待的未来图景。


15 亿大模型,手机 12 秒跑完


几个月前,高通就曾在巴塞罗那 MWC 通信展上玩了一把手机跑 Stable Diffusion。此次对于终端侧生成式 AI,高通首先展示了完全在安卓手机上运行 ControlNet 图像生成图像模型,并实现了速度「全球最快」


用时是多少呢?不到 12 秒。要知道,ControlNet 拥有 15 亿参数,而二月份高通演示在手机上运行 10 亿参数的 Stable Diffusion,当时还花了 15 秒左右。


这让人不得不感叹,终端侧的生成式 AI 能力又进化了。


作为一种生成式 AI 绘画解决方案,ControlNet 被认为是扩散模型中的大杀器,它通过额外输入控制预训练大模型如 Stable Diffusion,可以精细地设定生成图像的各种细节。先输入一张参考图,然后根据输入的 prompt 进行预处理,就能对生成的图像进行精准控制。


此次在高通 AI Research 的展示中,普通安卓手机仅用 11.26 秒便可以运行 ControlNet 生成一张图片,并且无需访问任何云端,完全本地化,交互式体验良好且运行非常高效。下面是一个动图演示:


我们知道,AI 画图的教程里通常会有对计算机配置的建议,在 ControlNet 上训练需要 16G 显存的 GPU,而推理用 M1 芯片需要 5 到 10 分钟,高通却能让手机做到效率更高,这是如何实现的呢?


高通此次对 ControlNet 模型架构进行了软硬件全栈式 AI 优化,以低功耗、低延迟地实现高质量图像生成。其中用到的关键 AI 工具和软硬件包括了高通 AI 模型增效工具包(AIMET)、高通 AI 引擎和高通 AI 软件栈。我们一一来看。

 


首先是 AIMET,它是高通创新中心推出的端侧 AI 模型效率工具包,能够提供模型量化和压缩服务,通过量化感知训练,将浮点运算模型转化为整数运算模型。此处高通利用 AIMET 及 Qualcomm AI Studio 完成 ControlNet 模型的 INT8 量化压缩,节省更多功耗,提升运行效率。


其次是高通 AI 引擎,它是高通终端侧 AI 优势的核心,采用异构计算机构,包括高通 Hexagon 处理器、Adreno GPU 和 Kryo CPU。目前高通第二代骁龙 8 搭载了迄今最快、最先进的高通 AI 引擎。ControlNet 正是在第二代骁龙 8 的高通 Hexagon 处理器上,完成了 AI 加速。


还有高通 AI 软件栈负责应用的构建、优化和部署。在跑 ControlNet 时,高通 AI 引擎 Direct 框架基于 Hexagon 处理器的硬件架构和内存层级进行运算排序,提升性能并最小化内存溢出,降低运行时延和功耗。


这么一套集 AI 模型压缩工具、硬件和软件框架于一体的全栈式优化下来,在手机上十几秒跑大模型的不可能变成了可能。


接近落地,可以展示


除了给 AI 绘画做移动版优化,高通还在数字人、神经网络视频编解码等其他技术方向进一步探索 AI 能力的延展。


在 CVPR 上,利用基于视觉的大语言模型(LLM),高通打造了一个「数字健身教练」,它能够与用户实时互动,像真人教练一样给予鼓励,还能纠正并帮助达成自己的健身目标。既然是大模型驱动,AI 教练实现了极强的互动性,看起来健身私教要开始焦虑了。



在技术上,数字健身教练将用户的运动视频流交给动作识别模型进行处理,根据识别的动作提供提示并反馈给大模型。然后健身教练通过一个文本生成语音的数字化身,将 AI 的答复反馈回用户。


得益于大模型的能力,数字化身能够实时、不间断地为用户提供相关的健身反馈,比如「你的形体看起来棒极了」、「你的双臂应与肩膀同宽」。


现在看起来和 AI 训练就不能偷懒了,它会对用户的健身互动进行评估,给出你的耐力、强度和形体分数,还告诉完成了多少组动作。同时也会给用户提出相关建议。


与此同时,在神经网络视频编码这一技术方向,高通又实现一个「全球首次」。同样是在手机端,高通首创了 1080p 的视频编码和解码过程。


对于神经网络编解码而言,它可以针对特定视频需求进行定制,并运行在通用 AI 硬件上。在计算能力有限的终端设备上实现高分辨率(如 1080p、2k 等),则要借助 AI 算法的创新。


高通全新设计了高效的神经网络视频帧间压缩架构,在搭载骁龙芯片的手机设备上,实现了 1080p 的视频编解码,视频解码速率也来到了每秒 35 帧上下,并且能够保留丰富的视觉结构和复杂动作。



看起来,移动端生成式 AI、神经视觉编码领域的很多技术已接近应用层,落地的速度追上了 GPT 系列更新的速度。高通在做的事,解决了生成式 AI 面临的大问题。


生成式 AI 的未来在端侧


我们知道,生成式 AI 有重塑所有行业的潜力,人工智能正在经历自己的闪耀时刻,问题在于:生成式 AI 虽然更聪明,但也更耗费算力。


有研究表示,每次基于生成式 AI 的网络搜索查询(query),其成本是传统搜索的 10 倍。全球每天都有超过 100 亿次搜索请求,而且,移动端的搜索占比超过了 60%。


除了要买更多 GPU,我们更要考虑的是如何能让大模型跑在手机上 —— 毕竟大家每天在用的都是端侧设备。


对此,高通已有一个整体的规划。今年 4 月,高通通过介绍「混合 AI」的概念,提出了大模型等 AI 任务处理在云端和终端共同进行的范式。


所谓混合 AI,是指充分利用边缘侧终端算力支持生成式 AI 应用的方式,相比仅在云端运行的 AI,前者能够带来高性能、个性化且更安全的体验。


在其愿景下,我们根据 AI 模型和查询需求的复杂度等因素,选择不同方式在云端和终端侧之间分配负载:如果模型、提示或生成内容的长度小于某个限定值,且精度足够,推理就可以完全在终端侧进行;如果任务相对复杂,则可以部分依靠云端模型;如果需要更多实时内容,模型也可以接入互联网获取信息。



在未来,不同的生成式 AI 用不同分流方式的混合 AI 架构,AI 也能在此基础上持续演进:


  • 大量生成式 AI 的应用,比如图像生成或文本创作,需求 AI 能够进行实时响应。在这种任务上,终端可通过运行不太复杂的推理完成大部分任务。

  • 在终端设备充当「感知器官」的任务中,终端负责初步处理任务,云端运行大模型将生成的内容发回端侧,这种操作节省了算力需求和带宽。

  • 终端和云端的 AI 计算也可以协同工作来处理 AI 负载。在大模型的工作过程中,每次推理生成的标记(token)都需要读取全部参数才能完成,使用闲置算力通过共享参数来推测性并行运行大语言模型,可以提升性能并降低能耗。


最后,混合 AI 还支持模型在终端侧和云端同时运行,也就是在终端侧运行轻量版模型时,在云端并行处理完整模型的多个 token,并在需要时更正终端侧的处理结果。


混合 AI 覆盖的边缘终端包括智能手机、汽车、个人电脑和物联网终端设备,或许会成为未来生成式 AI 应用的标准。


但如何做到混合 AI ?对此,必须对 AI 的全栈进行优化。在生成式 AI 出现以前,高通就在推动 AI 处理向边缘进行转移。很多的日常功能,都是利用终端侧 AI 进行支持的,如暗光拍摄、降噪和人脸解锁。


如今,高通已构建起业界领先的硬件和软件解决方案,从端侧芯片上的高通 AI 引擎,云端专用芯片,到将其统一在一起的异构计算机制,在运行 AI 负载时,高通现在已可以充分利用硬件和软件来加速终端侧 AI 的推理速度。


而在部署时,利用高通 AI 软件栈,开发者可以充分发挥高通 AI 引擎性能,并实现多端部署,模型构建一次,就可以应用到多种不同硬件上。



在高通的业务中,低功耗、高性能的 AI 已经形成了横跨智能手机、汽车、XR、PC 和企业级 AI 等领域的庞大终端 AI 生态系统。从拍照,语音助手,到增强 5G 信号的黑科技,持续利用先进 AI 技术,让这家公司保持了市场领先的地位。


在这背后,是高通 AI Research 对 AI 研究超过 15 年的持续投入。高通一直致力于 AI 基础技术的研究,从感知、推理再到认知,我们见证了终端 AI 技术的不断拓展。而在这个过程中,由高通发表的 AI 论文也逐渐影响了整个行业。


仅在生成式 AI 上,最初高通探索了生成式模型的压缩方式,并进一步提升了生成痕迹(Artifact)的感知效果,其利用 VAE 技术创建的视频和语音编解码器,将模型规模控制在了 1 亿参数以下。高通还将生成式 AI 理念延伸到无线领域来替代信道模型,提高了手机通信的效率。


CVPR 2023 上展示的技术,是高通生成式 AI 布局的重要一环。随着端侧 AI 计算能力的持续优化,混合 AI 的潜力将会进一步被释放。预计在未来几个月,高通还要在手机上部署超过 100 亿参数的大模型。


生成式 AI 可以打造全新体验,变革生产力水平,高通在边缘侧以低功耗运行生成式 AI 的独特专长,让生成式 AI 具有了融入人们日常生活的可行性。这些能力将会跟随全球出货的数十亿块芯片,很快进入到人们的手中。


在本周上海举行的世界人工智能大会 WAIC 上,高通将会有多位高管参与演讲,并有望在现场展示移动端运行 Stable Diffusion、ControlNet 等能力,让来看展的人可以近距离接触一下未来。



© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
降价的iPhone,疯狂收割安卓手机市场规则制定者与普通劳动者日本人把安卓手机做成了翻盖的,而且你100多元就能买到。英特尔公布1万亿参数AI模型,比ChatGPT大570%义工随笔:前传好人若蓝百川开源最强中英文百亿参数模型!超越LLaMA,中国开源大模型开启商用新纪元国产百亿大模型再增一员!400亿参数孟子GPT发布,各项任务平均提升10-15%传滴滴造车VP创业大模型;澜舟科技推出400亿参数通用大模型;商汤AIGC相关收入增长670.4%十亿参数,一键瘦身!「模型减重」神器增强型 SmoothQuant,让大模型狂掉 3/4650亿参数,8块GPU就能全参数微调!邱锡鹏团队把大模型门槛打下来了!推理1760亿参数的BLOOMZ,性能时延仅3.7秒 | 最“in”大模型54百亿参数大模型进化树重磅更新!85页盘点LLM发展史,附最详细prompt技巧我在iPhone上装了70亿参数大模型,来自陈天奇团队最新成果Vision Pro 开发套件开放申请;《黑镜》主创曾试 ChatGPT 写剧本;千亿级参数大模型「书生·浦语」发布|极客早知道LLM推理提速2.8倍,CMU清华姚班校友提出「投机式推理」引擎SpecInfer,小模型撬动大模型高效推理清华第二代60亿参数ChatGLM2开源!中文榜居首,碾压GPT-4,推理提速42%「模仿学习」只会套话?解释微调+130亿参数Orca:推理能力打平ChatGPT十亿参数,一键瘦身!「模型减重」神器让大模型狂掉3/4 | 最“in”大模型参数是ChaGPT的近6倍!英特尔公布AI大模型Aurora genAI,具备1万亿参数1天训完45亿参数大模型!高校计算能力首次比肩科技巨头查尔斯加冕和其他650亿参数大模型预训练方案开源可商用!LLaMA训练加速38%,来自明星开源项目树莓派上运行 Stable Diffusion,260MB 的 RAM「hold」住 10 亿参数大模型GPT-4参数最新爆料!1.76万亿参数,8个2200亿MoE模型,PyTorch创始人深信不疑咀外文嚼汉字(236)“加冕”、“戴冠”,coronation十亿参数,一键瘦身!「模型减重」神器让大模型狂掉 3/4爱奇艺VR公司业务停滞,员工或被欠薪;阿里云开源通义千问 70 亿参数模型,免费可商用;华为正式发布鸿蒙 4,接入大模型|Q资讯国产130亿参数大模型免费商用!性能超Llama2-13B,支持8k上下文,哈工大已用上复旦新作:单机微调650亿参数大模型;蚂蚁、百度参投AI大模型创企;杭州检方对AI换脸案提起公诉丨AIGC大事日报650亿参数,8块GPU就能全参数微调:邱锡鹏团队把大模型门槛打下来了AMD放大!苏妈甩出最强AI芯片叫板老黄,可跑800亿参数大模型《爱的月光》&《初见》GPT-4关键信息遭泄露;北京将发4000万元算力券;百川智能推130亿参数大模型丨AIGC大事日报参数是 ChatGPT 的近 6 倍!英特尔公布 AI 大模型 Aurora genAI,具备 1 万亿参数35 亿+66 亿参数双模型,消费级显卡上也能跑!Stability AI 发布重大升级,生成图像真假难辨
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。