Redian新闻
>
​NeurIPS 2022 | 仅需3分钟!开源Transformer快速训练后剪枝框架来了

​NeurIPS 2022 | 仅需3分钟!开源Transformer快速训练后剪枝框架来了

科技
©PaperWeekly 原创 · 作者 | An.
单位 | 中科院自动化所
研究方向 | 计算机视觉、模型压缩



引言
近年来,Transformer 已成为自然语言处理的标准模型结构,并在计算机视觉、语音识别等领域也取得了许多成果。然而,存储空间占用大、推理延迟高等问题阻碍了其实际应用。因此,针对 Transformer 的模型压缩方法得到了广泛的研究,结构化剪枝就是其中非常重要的一类方法。
过往的 Transformer 结构化剪枝方法虽然可以对模型参数量和计算量进行压缩,但由于下面的三类原因,在实践中通常难以应用:
1. 重新训练和/或联合学习剪枝配置方案会使训练时间增加多达 10 倍,显著增加了计算开销;
2. 复杂的剪枝框架包含了许多辅助模块和超参数,这些都为工程实现和调试带来了很大的困难;
3. 过去针对 Transformer 结构化剪枝方法往往不能适应用户的差异化需求,它们要么依赖正则化超参数模糊控制模型的稀疏性,要么使用与用户设置无关的固定模型结构,这些都可能导致次优剪枝模型。
为解决上述问题,本文提出了一个快速的 Transformer 训练后剪枝框架。训练后剪枝(Post-training pruning)是训练后压缩(Post-training compression)的一种,过去的研究主要集中在训练后量化(Post-training quantization)。训练后剪枝是指在不进行任何再训练的情况下对模型进行剪枝,从而避免额外的训练成本和用户干预。
本文提供了一个开箱即用的训练后剪枝框架,在单个 GPU 上仅需不到 3 分钟即可实现端到端的结构化剪枝,比过往的 Transformer 剪枝方法快了 100 多倍。

论文标题:

A Fast Post-Training Pruning Framework for Transformers

论文链接:

https://arxiv.org/pdf/2204.09656.pdf

代码链接:

https://github.com/WoosukKwon/retraining-free-pruning


该框架将 Transformer 模型、样本数据集和 FLOPs / 延迟约束作为输入,不进行任何再训练的情况下最终输出一个用于部署的剪枝模型。如图 1 所示,该框架有三个阶段:
1. 基于费雪信息矩阵(Fisher information matrix)对角化的掩码搜索(Mask Search),以确定各层修剪比例;
2. 基于层内相互作用的掩码重排列(Mask Rearrangement),以确定各层的修剪位置,找到最优二值掩码;

3. 基于线性最小二乘的掩码微调(Mask Tuning),以找到最优实值掩码,尽可能恢复模型性能。


▲ 图1. 本文剪枝框架示意图




方法

2.1 问题分析
问题定义:本文的剪枝问题可以定义为在稀疏约束(计算量或推理速度)下寻找最优掩码   。该剪枝问题可以描述为掩码 上的约束优化问题。

在不进行再训练的基础上,该问题可分解为三个子问题:1)确定各层注意力头和中间层神经元的修剪比例;2)确定各层注意力头和中间层神经元的修剪位置,即获得最优二值掩码;3)确定最优实值掩码,尽可能恢复模型性能。三个子问题分别由 2.2, 2.3, 2.4 三个小节依次解决。

问题简化:由于式(1)中的 通常是掩码 -范数的函数,它是不可微的,因此需要引入几个假设和近似来简化问题。
作者使用了初始掩码 附近的二阶泰勒展开来近似损失函数:
当模型收敛到局部最小值时,式(2)的梯度项 接近 0,由于 是常数,因此你优化目标可以改写为:
由于准确计算海森矩阵是不可行的,作者利用掩码变量的(经验的)费雪信息矩阵 来近似海森矩阵

2.2 掩码搜索
费雪信息矩阵的对角近似:用完整的费雪信息矩阵 求解式(3)的优化目标仍存在困难。因此,作者先忽略不同掩码变量的相互关系,假设 是对角矩阵。掩码搜索的目标是确定各层的修剪比例,掩码变量限制为 0 或 1,因此该阶段的目标函数可表示为:
求解 FLOPs 约束问题:头/神经元的数量和 FLOPs 成线性关系,因此可以采用网格搜索和贪心算法进行求解,搜索算法代码如下:
for num_heads in range(1, num_hidden_layers * num_attention_heads + 1): # 遍历所有的可能的头修剪数量
        heads_mac = mac_per_head(num_patches, hidden_size, attention_head_size) * num_heads # 计算修剪头减少的 FLOPs
        neurons_mac = max_mac - heads_mac   # 按照 FLOPs 约束, 计算神经元需要减少的 FLOPs
        num_neurons = int(neurons_mac / mac_per_neuron(num_patches, hidden_size))   # 计算最少需要修剪的神经元数量
        num_neurons = max(num_neurons, 0)

        # 贪心策略修剪重要性得分最小的元素
        total_importance = sorted_head_importance[:num_heads].sum() + sorted_neuron_importance[:num_neurons].sum()
        if total_importance > max_importance:   # 记录全局最优的头/神经元修剪比例
            max_importance = total_importance
            head_indicies = sorted_head_indicies[:num_heads]
            neuron_indicies = sorted_neuron_indicies[:num_neurons]
求解 Latency 约束问题:基本思想与求解 FLOPs 约束问题相同,不同点在于 Latency(推理延迟)与头/神经元不是线性关系。当同一层剩余的头/神经元足够多时,并行核等硬件资源可以得到充分利用,推理延迟大致与头/神经元数量成正比,然而,如果剩余头/神经元数量过少时,硬件未得到充分利用,基础开销主导着推理延迟。在提供推理延迟查找表 后,分别处理 的常数部分和线性部分。

▲ 图2. 推理延迟和头/神经元数量的大致关系

2.3 掩码重排列

费雪信息矩阵的块对角近似:掩码搜索阶段忽略了不同掩码变量间的相互作用,这虽然简化了问题,但也导致了次优解。例如,同一层的两个注意力头有类似的作用,只修剪其中一个对性能的影响不大,但当两者都被修剪时,模型的性能显著降低。因此作者在这一阶段考虑了每个 MHA 层或 FFN 层内部的相互作用,以找到更好的修剪位置。

掩码重排列将固定掩码搜索阶段得到的各层头/神经元修剪比例,逐层利用贪心搜索来重新排列每一层的二值掩码变量,以找到最优的修剪位置,获得最优二值掩码变量 ,具体代码如下:
# Greedy search
masked_indicies = indicies[:num_pruned] # 单一 MHA/FFN 层已修剪的元素索引
for index in indicies[num_pruned:]: # 遍历未修剪的元素
    masked_indicies.append(index)   # 将其加入已修剪元素列表
    grad_vectors = grads[masked_indicies]
    grad_sum = grad_vectors.sum(dim=0)

    complement = grad_sum - grad_vectors
    grad_sum_length = complement.pow(2).sum(dim=1)

    removed = grad_sum_length.argmin()  # 选出最重要的元素移出已修剪列表
    del masked_indicies[removed]

2.4 掩码微调

在这一阶段,前两个阶段获得的掩码变量 中的非零变量将被微调至任何实值,以使得修剪后的模型尽可能恢复性能。
基于线性最小二乘的逐层重构:类似 [1],求解最优实值掩码   可视为从第一层到最后一层,用修剪模型的剩余头/神经元重构原始模型的输出激活,具体形式如下:
式(6)可以简化为 的线性最小二乘问题。由于矩阵 的尺寸很大,直接求解会导致数值不稳定的结果。为解决这一问题,作者采用了带有正则化超参数(即阻尼)的 CuPy [2] 中的 LSMR 求解器。



实验

1. FLOPs 和准确率比较:如图 3 所示,在没有任何再训练和大幅降低修剪成本的情况下,本文的方法取得了与之前方法相当或更好的结果。


▲ 图3. 与过往方法的压缩性能对比

2. 修剪成本比较:如表 1 所示,本文的方法在修剪成本上降低了 2~3 个数量级(1/500~1/3300)。

▲ 表1. 与过往方法的修剪成本对比

3. 消融实验:如表 2 所示,本文提出的三个阶段对于性能的恢复都有贡献,掩码微调尤为关键。图 4 进一步研究了掩码搜索和重排列的重要性,从图中可知,本文提出的掩码搜索和重排列是获得最优二值掩码的必要条件,掩码微调需要在二值掩码保持较高精度时才有效。

▲ 表2. 三阶段消融实验


▲ 图4. 与其他二值掩码选择策略的比较,以分析掩码搜索和掩码重排列的作用

参考文献

[1] Yihui He, Xiangyu Zhang, and Jian Sun. Channel pruning for accelerating very deep neural networks. InProceedings of the IEEE international conference on computer vision, pages 1389–1397, 2017.
[2] ROYUD Nishino and Shohei Hido Crissman Loomis. Cupy: A numpy-compatible library for nvidia gpu calculations. 31st confernce on neural information processing systems, 151, 2017.

更多阅读



#投 稿 通 道#

 让你的文字被更多人看到 



如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。


总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 


PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。


📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算


📬 投稿通道:

• 投稿邮箱:[email protected] 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿


△长按添加PaperWeekly小编



🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧


·
·

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
扩散模型和Transformer梦幻联动!一举拿下新SOTA,MILA博士:U-Net已死DeepMind“反向”搭建Transformer方法火了:由可解释程序设计AI,项目已开源退休 26-寻找大仙​NeurIPS 2022 | 外包训练:无需终端上传源数据,无需联邦学习,也能得到好模型?清华朱军团队开源首个基于Transformer的多模态扩散大模型,文图互生、改写全拿下我最喜欢的旅行方式:东西南北跑四方统治扩散模型的U-Net要被取代了,谢赛宁等引入Transformer提出DiTICLR 2023 | 微软提出自动化模型训练剪枝框架OTO,一站式获得轻量级架构清华朱军团队开源UniDiffuser:首个基于Transformer的多模态扩散大模型!文图互生、改写全拿下!微软提出自动化神经网络训练剪枝框架OTO,一站式获得高性能轻量化模型六十年一个轮回吗?今天随意浏览了一下CMU 2019【回顾与展望】2022 后疫情时代的旅游,2023 回家强化学习中的Transformer发展到哪一步了?清北联合发布TransformRL综述ICRA 2023 | CurveFormer:基于Transformer的3D车道线检测新网络​NeurIPS 2022 | 知识蒸馏造成了样本不均衡问题?Transformer如何做扩散模型?伯克利最新《transformer可扩展扩散模型》论文2022 USNEWS发布美国薪酬最高行业TOP25NeurIPS22丨大图上线性复杂度的节点级 Transformer7 Papers & Radios | 推理速度比Stable Diffusion快2倍;视觉Transformer统一图像文本EeSen、FSMN、CLDNN、BERT、Transformer-XL…你都掌握了吗?一文总结语音识别必备经典模型(二)2022 湾区公立/私立高中 UCB 录取率排名ConvNeXt V2来了,仅用最简单的卷积架构,性能不输Transformer扩散模型和Transformer梦幻联动!替换U-Net,一举拿下新SOTA!高精度压缩Transformer,NNI剪枝一站式指南​NeurIPS 2022 | 最优脑压缩,训练后剪枝又一力作!​NeurIPS 2022 | DIST: 少学点反而更好!商汤开源松弛知识蒸馏方法ICLR 2023 | PatchTST: 基于Transformer的长时间序列预测Meta发布ConvNeXt V2!仅用最简单的卷积架构,性能不输Transformer【回顾与展望】 2022,非洲收宮之旅,阿尔及利亚,埃塞俄比亚,突尼斯微软开源DeepSpeed Chat,人人可快速训练百亿、千亿级ChatGPT大模型NeurIPS 2022 | 重振PointNet++雄风!PointNeXt:改进模型训练和缩放策略审视PointNet++清北联合出品!一篇Survey整明白「Transformer+强化学习」的来龙去脉10行代码搞定图Transformer,图神经网络框架DGL迎来1.0版本清华朱军团队开源UniDiffuser:首个基于Transformer的多模态扩散大模型NeurIPS 2022 | ​NAS-Bench-Graph: 图神经网络架构搜索Benchmark《更多的诗歌》:15: 等待,喜悦,那么难得相见心理学上说:最大的ViT来了!谷歌提出ViT-22B:视觉Transformer扩展到220亿参数ICLR 2023 | Specformer: 基于Transformer的集合到集合图谱滤波器
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。