Redian新闻
>
手机端生成模型爆发在即,芯片迎来巨变?

手机端生成模型爆发在即,芯片迎来巨变?

科技


以生成式模型(generative model)为代表的下一代AI正在席卷科技行业乃至整个人类社会。目前,人们对于生成式模型的关注还主要在于以OpenAI和谷歌为代表的人工智能巨头运行在云端服务器的模型,这些模型需要巨大的算力,并且一般运行在GPU上。然而,随着技术的发展,我们认为生成式模型运行在手机端已经到了一个转折点,马上会进入大规模铺开的阶段。


在看具体技术之前,我们不妨先看一下,用户对于运行在手机端的生成式模型有哪些具体应用场景。这期是值得我们仔细考虑,因为像ChatGPT这样的人工智能对话应用并不需要真正运行在手机终端——让ChatGPT完成文稿设计这样的需求的最佳使用场景还是在接入互联网的电脑上,而不是运行在手机本地。我们认为,最适合生成式模型运行在手机终端芯片上的第一是拍摄增强,包括超分辨、去模糊、照片补全等,这些应用需要模型能在任何时候都能低延迟地运行,因此需要在本地执行。另一个任务是智能助理,指的是通过运行一个大模型去检索所有用户本地的备忘录、短信记录等,通过综合用户所有的个人信息来实现智能助理的功能——例如如果检测到用户和某个联系人最近的短信是关于约在饭店吃饭,助理可以自动设置一个提醒信息,等等。由于涉及到用户隐私,因此这类模型也需要运行在手机本地的芯片上。


对于用于拍摄增强的生成式模型主要是以扩散(diffusion)模型为代表的图像生成式模型。扩散模型在去年一年中取得了长足的进步,其生成内容的质量足以改变用户的拍摄体验,包括:


1

超分辨:使用扩散模型可以把低分辨率的图片以很高的质量转换成高分辨率图像,其质量远高于目前已有的其他模型。

2

图像修补:包括把图像中不想要的内容去除/更换(即inpainting),或者把图片内容进一步补全(即outpainting)。


对于基于扩散模型的生成式图像模型,自从Stable Diffusion从去年下半年发布之后,已经获得了业界极大的关注。扩散模型一般的模型都较大,而且需要运行多步的采样过程,之前虽然也有运行在手机上的例子,但是因为运行时间过程(10秒左右),尚未得到真正大规模应用。然而,随着今年10月份中国清华团队发表了latent consistency model(LCM)的研究论文,在手机上运行高性能图像生成式模型已经不再遥不可及。



LCM模型和Stable Diffusion的模型结构类似,但是LCM通过数学上的优化,可以把一次生成需要的模型执行次数从Stable Diffusion的50次降低到2-4次,相当于把端到端的运行速度提升了10倍,而且生成图像的质量和Stable Diffusion接近。目前,LCM已经在人工智能社区得到了广泛的关注和应用,我们认为很快LCM就会成为手机上运行图像生成式模型的首选,而且LCM的低延迟可以真正实现全新的用户体验;例如,高质量的实时超分辨可以让数字变焦得到的拍摄质量和光学变焦相似,但是同时又避免了厚重的镜头;又如,inpainting/outpainting可以让用户快速编辑拍摄的照片并分享,能实现在手机上拥有和photoshop相似的效果,这也将会大大提升用户体验。


对于智能助理应用来说,目前主要还处于探索阶段,如何将多模态的信息(包括用户的短信、备忘录、日历等等)整合在一起并不容易,但是我们认为最终模型的形态最有可能还是类似GPT这样的大语言模型,通过海量数据与训练来实现对于用户数据的深入理解并且给出相应帮助。这类智能助手的第一步落地应用可能是用户消息编辑和改写,例如用户可以让智能助手去改写一条短信以改变语气,这样的应用预计在明年就会落地。


手机生成式模型需要什么样的芯片


首先,我们从用于拍摄增强的图像生成式模型(LCM)开始分析,因为这类模型的应用较为明确。



我们对于模型芯片支持的分析可以从算符、算力和内存三方面来入手。从算符来看,LCM或者Stable Diffusion模型使用的算符主要是常用的卷积和注意力(attention)层,这些算符在目前的手机芯片人工智能加速器中已经得到了非常好的支持。而在算力和内存方面,图像生成式模型的复杂度和模型尺寸都比现有的运行在手机上的人工智能模型要大一到两个数量级:LCM的参数量达到了10亿以上,而相对而言目前主流手机人工智能模型的参数量都在千万左右。如我们之前所说的,手机需要能实时执行这样的模型,因此需要在算力上满足模型的需求。


算力能满足需求可以从两方面来考虑,首先是增加人工智能加速器的峰值算力,主要的方法就是增加计算单元的数量。但是,计算单元数量的增加是以更大的芯片面积(即更高的成本)为代价的,为了能在成本和性能之间得到一个较好的折衷,需要能使用“性价比”更好的计算单元。在服务器的LCM版本中,使用的计算是基于32位或者16位浮点数的,但是在手机端执行时32/16位浮点数计算单元太贵,因此绝大多数的计算必须使用更低精度,例如8位定点数,或者8位浮点数9甚至是4位浮点数)。这里就涉及到了一个软硬件协同设计的问题,即如何在使用低精度计算的条件下同时确保模型输出质量不受太大影响,具体是使用8位浮点数还是8位定点数性价比更高等等,因此需要模型设计团队和芯片设计团队合作才能完成。另外,由于模型的尺寸远大于之前的主流模型到达了GB数量级,因此很可能需要手机的DRAM容量进行升级才能较好的支持。


除了DRAM容量之外,模型参数量大也意味着对于内存接口的压力更大(否则可能会陷入内存墙问题,让内存访问成为整体模型执行速度的瓶颈)。从这个角度,一方面可望将会推动手机芯片加速使用下一代内存接口(例如LPDDR6),而在另一方面也推动SoC使用更多的片上内存(SRAM)来缓解DRAM访问的压力。最后,在Stable Diffusion和LCM模型中广为使用的U-Net神经网络结构也拥有更多的中间结果(activation),为了能确保最佳的延迟和能效比,这也需要SoC片上有更多的SRAM来满足需求。


对于大语言模型来说,其对于手机芯片的需求也可以从算符、算力和内存来看。同样,算符方面大语言模型使用的主要算符是attention,目前已经得到广泛支持;主要挑战则是大语言模型的参数量甚至比扩散模型/LCM更大一个数量级,到了百亿数量级,这对于手机内存容量和接口速度都将造成巨大的挑战,而如果大语言模型真的能在手机得到大规模应用,预计将会大大推动手机芯片内存容量和内存接口的发展。此外,由于大语言模型的参数量太大,很有可能需要多级缓存,每次只会有一部分模型参数加载在DRAM中,还会有一部分会留在非易失性存储器中,因此内存和非易失性存储器的接口速度提升可能也会得到推动。


生成式模型对手机芯片市场的潜在影响


目前,我们看到手机系统厂商已经越来越重视生成式模型在手机端的应用。在最近的发布会上,知名手机厂商vivo和Oppo都把这类生成式模型作为下一代新手机的主要卖点,原因很简单,因为目前生成式模型已经到了能够真正成为核心用户体验的时刻了,而且模型技术也足够成熟,爆发在即。


手机芯片格局也可能会在这次的生成式模型热潮中发生微妙的改变。生成式模型的支持能力可能会成为和手机镜头一样重要的核心硬件卖点,但是生成式模型的最终解决方案其实是一个软硬件结合设计的方案,这样来说,其实对于有自研芯片能力的手机厂商来说是非常有利的,因为这些手机厂商可以通过同时掌握模型和硬件的设计,从而实现最高效率的解决方案,或者换句话说有可能通过深度的协同优化,即使在芯片实现工艺和性能较为落后的情况下,仍然实现很好的用户体验,这一点对于一些中国的手机厂商例如华为来说尤其有利,因为他们同时拥有深度的人工智能模型开发、手机系统优化和芯片开发能力,通过在自研的第一方应用(例如拍照以及照片浏览)应用中加入自研的模型跑在自研的芯片上,有机会充分利用端到端优化的机会。


对于为手机系统提供芯片平台的公司例如高通和联发科来说,则需要提供完整的参考设计。在这方面,高通已经把手机端生成式模型提到了核心位置,在最近发布的Snapdragon 8 Gen 3中,高通宣布可以实现以低于一秒的延迟实现Stable Diffusion图像生成,未来可望进一步提升质量并降低延迟,接下来就看使用高通芯片的手机系统厂商如何利用这样的算力了。联发科也基于亿级参数大语言模型的特性,开发了混合精度 INT4 量化技术,结合公司特有的内存硬件压缩技术NeuroPilot Compression,以更高效地利用内存带宽,大幅减少AI大模型占用终端内存,为端侧运行AI大语言模型突破手机内存限制,助力更大参数模型在端侧落地。


另一个疑问是,云端生成式模型芯片领域目前的统治者Nvidia会如何看待手机生成式模型的机会?Nvidia在移动端的尝试自从十多年前的Tegra系列之后似乎就停滞了,但是今年年中Nvidia传出和联发科合作并且下一代联发科旗舰手机SoC可能会使用Nvidia GPU的消息,可见Nvidia在手机生成式模型领域还是有机会能切入。Nvidia在这个领域的优势主要在于模型开发生态,但是在手机生态(包括第一方应用)中是否继续这样的优势,还需要联合SoC厂商以及使用该SoC的手机系统厂商深度合作,这样的合作能进行到什么样的程度,还需拭目以待。



*免责声明:本文由作者原创。文章内容系作者个人观点,半导体行业观察转载仅为了传达一种不同的观点,不代表半导体行业观察对该观点赞同或支持,如果有任何异议,欢迎联系半导体行业观察。


今天是《半导体行业观察》为您分享的第3590期内容,欢迎关注。

推荐阅读


Chiplet,面临五大障碍

俄罗斯芯片,还有戏吗?

硅光,潜力无限!


半导体行业观察

半导体第一垂直媒体

实时 专业 原创 深度


识别二维码,回复下方关键词,阅读更多

晶圆|集成电路|设备|汽车芯片|存储|台积电|AI|封装

回复 投稿,看《如何成为“半导体行业观察”的一员 》

回复 搜索,还能轻松找到其他你感兴趣的文章!

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
(古詩英譯) 暮江吟 – 白居易国产汽车芯片迎曙光 结构性缺芯问题仍待解vivo发布蓝心大模型,手机端运行且开源,自研系统亮相用童话训练AI模型,微软找到了探索生成模型参数的新切入点不把雷锋当旧社会的苦孩子而当民国的农村娃看,能见到以前见不到的雷锋样。老人给下一代留路,给自己留脸吧岩浆逼近地表,城镇紧急疏散,冰岛火山喷发在即?效果超越Gen-2!字节最新视频生成模型,一句话让绿巨人戴上VR眼镜百纳米完胜7纳米?清华团队在该芯片领域实现新突破,芯片性能提升万倍【提示】一图读懂《上海市加快合成生物创新策源 打造高端生物制造产业集群行动方案(2023-2025年)》弥合2D和3D生成之间的次元壁!X-Dreamer:高质量的文本到3D生成模型劳斯莱斯任职14年的CEO将退休,他为这个英国豪车老牌带来了哪些巨变?旧金山APEC峰会在即,AⅠ连续大涨!华为AI芯片能不能打?华为AI概念股,谁能唱真戏?火山爆发在即!世界著名景点关闭!冰岛的野奢酒店怎么反而涨价了?万字随笔| 游埃及 我出发在哈以冲突爆发减震利器,攻守兼备!海富通悦享一年持有期混合新发在即澳洲移民政策迎来巨变!削减18.5万人,只要优秀人才!对留学生下狠手了IEEE Fellow 张磊:普及大模型,手机端的创新很关键一百四十五 总结学界速递 | 清华原校长王希勤履新基金委; 苹果开发可在手机端运行的LLM德邦证券:生物医药行业深度-减肥药制剂篇-有望诞生“全球药王”-国内市场爆发在即AI早知道|Gemini推理能力强于GPT-3.5;美图AI视觉大模型将向公众开放;Meta推全新视频生成模型FlowVidNeurIPS 2023 | SlotDiffusion: 基于Slot-Attention和扩散模型的全新生成模型中美关系将迎来巨变?离谱!纽约诊所摆乌龙 女子无端生了“别人的娃” 丈夫差点以为自己被绿手机大模型爆发:vivo 发布自研蓝心大模型,参数追赶 GPT-3文末送书 | 深度生成模型:详解AIGC模型的技术基石,稳步迈进通用人工智能中美芯片巨头和解,芯片业的重大利好?乌俄最新:乌军发动了末日般的打击,将迎来巨大惊喜……混动车型爆发,电池厂急扩产|PowerOn焦点从居民买房到国家买房!楼市迎来巨变生成模型构建交互式现实世界模拟器,LeCun觉得非常酷医疗大模型爆火!微软、谷歌全All in如何建立一个专业的队列研究数据库?随访管理|多中心|患者招募|手机端一百四十六 登天平山
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。