ICLR 2023 | 微软提出自动化模型训练剪枝框架OTO,一站式获得轻量级架构
大型神经网络 DNN 对资源的巨大需求限制了其在现实世界的部署,如何在尽可能小地损失性能的前提下,压缩神经网络是 DNN 产品化的关键。
剪枝是最常见的 DNN 压缩方法之一,旨在减少冗余结构,给 DNN 模型瘦身的同时保持模型性能。然而,现有的剪枝方法通常指针对特定模型,特定任务,并需要 AI 工程师投入大量的工程和时间精力来应用这些方法到自己的任务上。
为了解决这些问题,微软团队提出了 OTOv2 框架,并发表于 ICLR 2023。OTOv2 是业内首个自动化,一站式,用户友好,且通用的神经网络训练与结构压缩框架。通过使用 OTOv2,AI 工程师可以非常方便地训练目标神经网络,一站式地取得高性能且轻量化的模型。OTOv2 最小化了开发者额外的工程时间精力的投入,且全程无需现有方法通常需要的非常耗时的预训练和额外的模型微调。
代码链接:
该研究的主要贡献概括如下:
1. 一站式自动化神经网络结构剪枝架构。研究者提出了一个名为 OTOv2(Only-Train-Once)的 one-shot 训练和剪枝框架。它可以将一个完整的神经网络压缩为轻量级网络,同时保持较高的性能。OTO 大大简化了现有剪枝方法复杂的多阶段流程,适合各种架构和应用,且最小化了用户的额外工程投入,因具有通用性,有效性和易用性。
2. 自动化 Zero-Invariant Groups(零不变组)分组。由于网络结构的复杂性和关联性,删去任意网络结构可能会导致剩余的网络结构无效。因此自动化网络结构压缩的一个最大的问题之一是如何找到必须要被一起剪枝的模型参数,使得余下的网络依然有效。
为了解决该问题,研究者提出神经网络的可移除单元和零不变组 Zero-Invariant Groups(ZIGs)。零不变组可以理解为一类最小的可移除单元,使得该组对应的网络结构移除后剩余网络依然有效。研究者进一步提出并实现了一套自动化算法来解决通用网络的 ZIGs 分组问题。
3. 双半平面投影梯度优化算法(DHSPG)。接下来的模型训练和剪枝需要找出冗余的和重要的零不变组。这个问题可以归纳为一个结构稀疏化问题,研究者提出 Dual Half-Space Projected Gradient(DHSPG)优化算法来解决该问题。DHSPG 可以非常有效地找出冗余的零不变组并将其投影成零,并持续训练重要的零不变组来取得跟原始模型相媲美的性能。
4. 自动化构建轻量压缩模型。研究者自动化地删除冗余的零不变组所对应的网络单元来构建轻量化网络。该轻量化由于零不变组的特性会返回跟完整模型一样的输出,因此无需进一步模型微调。
▲ 表1:CIFAR10 中的 VGG16 及 VGG16-BN 模型表现
在 CIFAR10 的 VGG16 实验中,OTOv2 将浮点数减少了 86.6%,将参数量减少了 97.5%,性能表现令人印象深刻。
▲ 表2:CIFAR10 的 ResNet50 实验
在 CIFAR10 的 ResNet50 实验中,OTOv2 在没有量化的情况下优于 SOTA 神经网络压缩框架 AMC 和 ANNC,仅使用了7.8% 的 FLOPs 和 4.1% 的参数。
▲ ResNet50 on ImageNet.
在 ImageNet 的 ResNet50 实验中,OTOv2 在不同结构稀疏化目标下,展现出跟现存 SOTA 方法相媲美甚至更优的表现。
▲ 表3:更多结构和数据集
OTOv2 也在更多的数据集和模型结构上取得了不错的表现。
更多阅读
#投 稿 通 道#
让你的文字被更多人看到
如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。
总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。
PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析、科研心得或竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。
📝 稿件基本要求:
• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注
• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题
• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算
📬 投稿通道:
• 投稿邮箱:[email protected]
• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者
• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿
△长按添加PaperWeekly小编
🔍
现在,在「知乎」也能找到我们了
进入知乎首页搜索「PaperWeekly」
点击「关注」订阅我们的专栏吧
微信扫码关注该文公众号作者