Redian新闻
>
12秒内AI在手机上完成作画!谷歌提出扩散模型推理加速新方法

12秒内AI在手机上完成作画!谷歌提出扩散模型推理加速新方法

公众号新闻
明敏 发自 凹非寺
量子位 | 公众号 QbitAI

只需12秒,只凭手机自己的算力,就能拿Stable Diffusion生成一张图像。

而且是完成了20次迭代的那种。

要知道,现在的扩散模型基本都超过了10亿参数,想要快速生成一张图片,要么基于云计算,要么就是要本地硬件够强大了。

而随着大模型应用逐渐普及开来,在个人电脑、手机上跑大模型很可能是未来的新趋势。

由此,谷歌的研究员们带来了这篇新成果,名字就叫Speed is all you need:通过GPU优化加速大规模扩散模型在设备上的推理速度。

三步走优化加速

该方法是针对Stable Diffusion来做的优化,但同时也能适应其他扩散模型。面向的任务是从文本生成图像。

具体优化可以分成三个部分

  • 设计专门的内核

  • 提升Attention模型效率

  • Winograd卷积加速

首先来看专门设计的内核,它包括了组归一化和GELU激活函数

组归一化是在整个UNet体系结构中实现,这种归一化的工作原理是将特征映射的通道划分为更小的组,并对每个组独立归一,使组归一化较少依赖于批大小,并且能适应更大范围的批处理大小和网络架构。

研究人员以GPU着色器(shader)的形式设计了一个独特的核,能在没有任何中间张量的情况下,在单个GPU命令中执行所有内核。

GELU激活函数中,包含大量的数值计算,如惩罚、高斯误差函数等。

通过一个专用着色器来整合这些数值计算以及伴随的分割和乘法操作,使得这些计算能放在一个简单的draw call里。

Draw call是CPU调用图像编程接口,命令GPU进行渲染的操作。

接下来,到了提升Attention模型效率方面,论文介绍了两种优化方法。

其一是部分融合softmax函数。

为了避免在大矩阵A上执行整个softmax计算,该研究设计了一个GPU着色器来计算L和S向量以减少计算,最终得到一个大小为N×2的张量。然后将softmax计算和矩阵V的矩阵乘法融合。

这种方法大幅减少了中间程序的内存占用张量和总体延迟。

需要强调的是从A到L、S的计算映射的并行是有限的,因为结果张量中的元素比输入张量A中的元素数量要少得多。

为了增加并行、进一步降低延迟,该研究将A中的元素组成block,将归约操作(reduction operations)切分为多个部分进行。

然后在每个block上执行计算,然后将其简化为最终结果。

利用精心设计的线程和内存缓存管理,可以在多个部分实现使用单个GPU命令降低延迟。

另一种优化方法是FlashAttention

这是去年火起来的IO感知精确注意力算法,具体有两种加速技术:按块递增计算即平铺、并在后向传递中重新计算注意力,将所有注意力操作融合到CUDA内核中。

相较于标准Attention,这种方法能减少HBM(高带宽内存)访问,提高整体效率。

不过FlashAttention内核的缓存器密集度非常高(register-intensive),所以该团队是有选择性地使用这一优化方法。

他们在注意力矩阵d=40的Adreno GPU和Apple GPU上使用FlashAttention,其他情况下使用部分融合softmax函数。

第三部分是Winograd卷积加速

它的原理简单来说就是使用更多的加法计算来减少乘法计算,从而降低计算量。

但弊端也很明显,将会带来更多的显存消耗和数值错误,尤其是在tile比较大的情况时。

Stable Diffusion的主干非常依赖3×3卷积层,尤其是在图像解码器方面,这里90%的层都是由3×3卷积层构成的。

研究人员分析后发现,在使用4×4大小的tile时,是模型计算效率和显存利用率的最佳平衡点。

实验结果

为了评估提升效果,研究人员先在手机上进行了基准测试。

结果表明,两部手机在使用了加速算法后,生成图片的速度都明显提升。

其中三星S23 Ultra的延迟降低了52.2%,iPhone 14 Pro Max上的延迟降低了32.9%

在三星S23 Ultra上端到端从文本生成一张512×512像素的图片,迭代20次,耗时在12秒以内。

论文地址:
https://arxiv.org/abs/2304.11267

《中国AIGC算力产业全景报告》征集倒计时

AIGC算力需求爆发,谁将在此次算力产业变革中脱颖而出?

量子位《中国AIGC算力产业全景报告》《最值得关注的AIGC算力玩家》征集即将截止,欢迎更多优秀的机构、产品、技术案例与我们联络 ~


点这里👇关注我,记得标星哦~


一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见 ~ 

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
7nm制程,比GPU效率高,Meta发布第一代AI推理加速器ICLR 2023 | 扩散生成模型新方法:极度简化,一步生成三个同学—受人之托CVPR 2023 | 超越MAE!谷歌提出MAGE:图像分类和生成达到SOTA!实现零代码模型推理部署,Graphcore PopRT正式推出扩散模型生成带汉字图像,一键输出表情包:OPPO等提出GlyphDraw《卖博士》者与当年地富的异同图像生成终结扩散模型,OpenAI「一致性模型」加冕!GAN的速度一步生图,高达18FPSGPT-4拿下最难数学推理数据集新SOTA,新型Prompting让大模型推理能力狂升速度惊人!手机跑Stable Diffusion,12秒出图,谷歌加速扩散模型破记录港大和微软提出Uni-ControlNet:可控制扩散模型再添一员!【首发】惠凯医疗完成数千万A+轮投资,加速新型尿道支架系统临床试验的推进恭喜客人成功办理加拿大签证!中国护照在美持绿卡或F/H/J/M等签证怎么办理加拿大签证?终结扩散模型:OpenAI开源新模型代码,一步成图,1秒18张Snap团队最新AI研究成果:2秒文字成图,手机上也能运行谷歌优化扩散模型!在三星手机上运行Stable Diffusion,12秒内出图!谷歌下场优化扩散模型,三星手机运行Stable Diffusion,12秒内出图异地就医备案,能在手机上办了!对标GPT-4!谷歌发布大语言模型PaLM 2,可在手机运行,云、搜索、电邮等一网打尽!CVPR 2023 | 多个扩散模型相互合作,新方法实现多模态人脸生成与编辑chatGPT 说的笑话!笑死人了!CVPR 2023 | 谷歌提出CLIPPO:仅从像素理解图像和语言谷歌模型支持手机上跑Stable Diffusion;普华永道砸10亿美元投资AIGC;天翼云将推出大模型丨AIGC大事日报LLM推理提速2.8倍,CMU清华姚班校友提出「投机式推理」引擎SpecInfer,小模型撬动大模型高效推理嫁给小16岁小男友,我被“折腾”得不成人样,50岁女人说了大实话AIGC玩出新花样!Stable Diffusion公司提出基于扩散模型的视频合成新模型CVPR'23 最佳论文候选 | 采样提速256倍!蒸馏扩散模型生成图像质量媲美教师模型奇瑞汽车发布新能源战略 四大品牌加速新能源转型Steam喜加一!雷亚游戏发表声明表示并未大量解雇画师并使用AI作画!一个1949年在台湾出生的外省人的心声CVPR 2023 | 微软提出LDGM:利用解耦扩散模型统一版面生成大模型的好伙伴,浅析推理加速引擎FasterTransformer加速新能源布局,东风开启「转型升级三年行动」扩散模型还能预测地震和犯罪?清华团队最新研究提出时空扩散点过程【首发】普译生物完成近亿元A轮融资,加速新一代生物纳米孔基因测序产品量产
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。