轻量级持续学习: 0.6%额外参数把旧模型重编程到新任务
机器之心专栏
机器之心编辑部
论文地址: https://arxiv.org/pdf/2307.11386.pdf 项目地址: https://github.com/gyhandy/Channel-wise-Lightweight-Reprogramming 数据集地址: http://ilab.usc.edu/andy/skill102
基于正则化的方法是模型在学习新任务的过程中对参数更新添加限制,在学习新知识的同时巩固旧知识。 动态网络方法是在学习新任务的时候添加特定任务参数并对旧任务的权重进行限制。 重放方法假设在学习新任务的时候可以获取旧任务的部分数据,并与新任务一起训练。
重用而不是重学:对抗重编码(Adversarial Reprogramming [1])是一种通过扰动输入空间,在不重新学习网络参数的情况下,"重编码" 一个已经训练并冻结的网络来解决新任务的方法。研究者借用了 “重编码” 的思想,在原始模型的参数空间而不是输入空间进行了更轻量级但也更强大的重编程。 通道式转换可以连接两个不同的核:GhostNet [2] 的作者发现传统网络在训练后会得到一些相似的特征图,因此他们提出了一种新型网络架构 GhostNet:通过对现有特征图使用相对廉价的操作(比如线性变化)生成更多的特征图,以此来减小内存。受此启发,本文方法同样使用线性变换生成特征图来增强网络,这样就能以相对低廉的成本为各个新任务量身定制。 轻量级参数可以改变模型分布:BPN [3] 通过在全连接层中增加了有益的扰动偏差,使网络参数分布从一个任务转移到另一个任务。然而 BPN 只能处理全连接层,每个神经元只有一个标量偏置,因此改变网络的能力有限。相反研究者为卷积神经网络(CNN)设计了更强大的模式(在卷积核中增加 “重编码” 参数),从而在每项新任务中实现更好的性能。
动态网络:PSP,SupSup,CCLL,Confit,EFTs 正则化:EWC,online-EWC,SI,LwF 重放:ER,DERPP
© THE END
转载请联系本公众号获得授权
投稿或寻求报道:[email protected]
微信扫码关注该文公众号作者
戳这里提交新闻线索和高质量文章给我们。
来源: qq
点击查看作者最近其他文章