Redian新闻
>
用别的模型权重训练神经网络,改神经元不影响输出:英伟达神奇研究

用别的模型权重训练神经网络,改神经元不影响输出:英伟达神奇研究

公众号新闻
机器之心报道
编辑:泽南、小舟

DNN 已经可以这么玩了?


不论计算机视觉还是 NLP,深度神经网络(DNN)是如今我们完成机器学习任务的首选方法。在基于此构建的模型中,我们都需要对模型权重执行某种变换,但执行该过程的最佳方法是什么?

最近,英伟达对其 ICML 2023 研究 DWSNet 进行了解读。DWSNet 展示了一种全新架构,它可以有效处理神经网络的权重,同时保持其排列对称性的等方差。

根据这种方法,我们可以根据其他网络的权重来训练一个网络,这也许是一个用来做持续学习的好方法。同样有趣的是,基于 DWSNet 的探索,我们发现网络权重具有排列对称性 —— 这意味着可以更改神经元的顺序而不更改输出。


  • 论文链接:https://arxiv.org/abs/2301.12780
  • 官方 GitHub:https://github.com/AvivNavon/DWSNets

这种方法被认为具有广泛潜力,可以实现各种有趣的任务,例如使预先训练的网络适应新的领域。或许我们可以训练一个从另一个网络提取、编辑或删除信息的网络。

而在生成模型上,我们或许可以在很多针对各种任务进行训练的网络上进行训练,然后在运行时为特定任务生成一个网络 —— 就像现代版本的快速权重网络一样。

让我们看看 DWSNet 是怎么做到的:

在使用隐式神经表征(Implicit Neural Representations,INR)或神经辐射场(Neural Radiance Fields,NeRF)表征的 3D 对象数据集时,我们经常需要「编辑」对象以更改其几何形状或修复错误,例如移除杯子的把手、使车轮更加对称。然而,使用 INR 和 NeRF 的一个主要挑战是它们必须在编辑之前先进行渲染,编辑工具依赖于渲染和微调 INR 或 NeRF 参数。

图 1. 数据专用架构示例。

来自英伟达的研究团队试图把神经网络用作一种处理器,来处理其他神经网络的权重。

表征深度网络参数最简单的方法是将所有权重(和偏置)矢量化为简单的平面向量,然后应用全连接网络(多层感知机(MLP))。这种方法可以预测神经网络的性能。
但这种方法有一个缺点。神经网络权重空间具有复杂的结构,将 MLP 应用于所有参数的矢量化版本会忽略该结构,进而损害泛化能力。

图 2. 具有两个隐藏层(下)的多层感知机(MLP)的权重对称性(上)。

几何深度学习(GDL)领域已经针对 MLP 的这个问题进行了广泛的研究。

在许多情况下,学习任务对于一些变换是不变的。例如,查找点云类别与给网络提供点的顺序无关。但在有些情况下,例如点云分割(point cloud segmentation),点云中的每个点都被分配一个类,那么输出就会随着输入顺序的改变而改变。

这种输出随着输入的变换而变换的函数称为等变函数。对称感知架构因其有意义的归纳偏置而具有多种优势,例如它们通常具有更好的样本复杂性和更少的参数,这些因素可以显著提高泛化能力。

权重空间的对称性

那么,哪些变换可以应用于 MLP 的权重,使得 MLP 所表征的底层函数不会改变?
这就涉及到一种特定类型的变换 —— 神经元排列。如图 2 所示,直观地讲,更改 MLP 某个中间层神经元的顺序,函数不会发生改变。此外,每个内部层的重新排序过程可以独立完成。

MLP 可以使用如下方程组表示:



该架构的权重空间被定义为包含矢量化权重和偏差的所有串联的(线性)空间。


重要的是,这样的话,权重空间是(即将定义的)神经网络的输入空间。

那么,权重空间的对称性是什么?对神经元重新排序可以正式建模为将置换矩阵应用于一层的输出以及将相同的置换矩阵应用于下一层。形式上,可以通过以下等式定义一组新参数:


新的参数集有所不同,但很容易看出这种变换不会改变 MLP 表示的函数。这是因为两个置换矩阵 P 和 P^t 相互抵消(假设有像 ReLU 这样的元素激活函数)。

更普遍的,如前所述,不同的排列可以独立地应用于 MLP 的每一层。这意味着以下更通用的变换集不会改变底层函数。我们将它们视为权重空间的「对称性」。


在这里,Pi 表示置换矩阵。这一观察是由 Hecht-Nielsen 于 30 多年前在论文《ON THE ALGEBRAIC STRUCTURE OF FEEDFORWARD NETWORK WEIGHT SPACES》中提出的。类似的变换可以应用于 MLP 的偏差。

构建深度权重空间网络

文献中的大多数等变架构都遵循相同的方法:定义一个简单的等变层,并将架构定义为此类简单层的组合,它们之间可能具有逐点非线性。

CNN 架构就是这种结构的一个很好的例子。在这种情况下,简单的等变层执行卷积运算,CNN 被定义为多个卷积的组合。DeepSets 和许多 GNN 架构都遵循类似的方法。有关更多信息,请参阅论文《Weisfeiler and Leman Go Neural: Higher-Order Graph Neural Networks》和《Invariant and Equivariant Graph Networks》。

当目标任务不变时,可以使用 MLP 在等变层之上添加一个不变层,如图 3 所示。

图 3:典型的等变架构由几个简单的等变层组成,后面是不变层和全连接层。

在论文《Equivariant Architectures for Learning in Deep Weight Spaces》中,英伟达研究者遵循了这个思考。我们的主要目标是为上面定义的权重空间对称性识别简单而有效的等变层。不幸的是,表征一般等变函数的空间可能具有挑战性。与之前的一些研究(例如跨集合交互的深度模型)一样,我们的目标是表征所有线性等变层的空间。

因此,研究人员开发了一种新的方法来表征线性等变层,该方法基于如下观察:权重空间 V 是表示每个权重矩阵 V=⊕Wi 的更简单空间的串联。(为简洁起见,省略了偏差术语)。

这一观察非常重要,因为它可以将任何线性层 L:V→V 写入块矩阵,其第 (i,j) 块是 Wj 和 Wi Lij : Wj→Wi 之间的线性等变层。块结构如图 4 所示。

但我们如何才能找到 Lij 的所有实例呢?论文中列出了所有可能的情况,并表明其中一些层已经在之前的工作中得到了表征。例如,内部层的 Lii 在跨集交互的深度模型中进行了表征。

值得注意的是:在这种情况下,最通用的等变线性层是常见的,仅使用四个参数的深度集层的泛化。对于其他层,新研究提出基于简单等变操作的参数化,例如池化、broadcasting 和小型全连接层,并表明它们可以表示所有线性等变层。

图 4 展示了 L 的结构,它是特定权重空间之间的分块矩阵。每种颜色代表不同类型的图层。Lii 是红色的。每个块将一个特定的权重矩阵映射到另一个权重矩阵。该映射以依赖于网络中权重矩阵的位置的方式参数化。

图 4:线性等变层的块结构。

该层是通过独立计算每个块然后对每行的结果求和来实现的。英伟达在论文中涵盖了一些额外的技术细节,例如处理偏差项和支持多个输入和输出功能。

我们将这些层称为深度权重空间层(DWS 层),并将由它们构建的网络称为深度权重空间网络(DWSNet)。我们在这里关注以 MLP 作为输入的 DWSNet。

深度权重空间网络的表达能力

如果我们把假设类限制为简单等变函数的组合,可能会无意中损害等变网络的表达能力,这在上面引用的图神经网络文献中得到了广泛的研究。英伟达的论文表明,DWSNet 可以近似输入网络上的前馈操作,这是理解其表达能力的一步。随后,新研究证明 DWS 网络可以近似 MLP 函数空间中定义的某些「表现良好」的函数。

实验

DWSNet 在两个任务系列中进行评估。首先采用代表数据的输入网络,例如 INR。其次,采用代表标准 I/O 映射(例如图像分类)的输入网络。

实验一:INR 分类

此配置根据 INR 所代表的图像对 INR 进行分类。具体来说,它涉及训练 INR 来表示来自 MNIST 和 Fashion-MNIST 的图像。任务是让 DWSNet 使用这些 INR 的权重作为输入来识别图像内容,例如 MNIST 中的数字。结果表明,英伟达提出的 DWSNet 架构大大优于其他基线。

表 1:INR 分类。INR 的类别由它所代表的图像定义(平均测试准确度)。

重要的是,将 INR 分类到它们所代表的图像类别比对底层图像进行分类更具挑战性。在 MNIST 图像上训练的 MLP 可以实现近乎完美的测试精度。然而,在 MNIST INR 上训练的 MLP 却取得了较差的结果。

实验 2:INR 的自监督学习

这里的目标是将神经网络(特别是 INR)嵌入到语义一致的低维空间中。这是一项很重要的任务,因为良好的低维表示对于许多下游任务至关重要。

在这里的数据由适合 a\sin (bx) 形式的正弦波的 INR 组成,其中 a、b 从区间 [0,10] 上的均匀分布中采样。由于数据由这两个参数控制,因此密集表示应该提取底层结构。

图 5:使用自监督训练获得的输入 MLP 的 TSNE 嵌入。

类似 SimCLR 的训练过程和目标用于通过添加高斯噪声和随机掩码来从每个 INR 生成随机视图。图 4 展示了所得空间的 2D TSNE 图。英伟达提出的 DWSNet 方法很好地捕捉了数据的潜在特征,而与之对比的方法则比较困难。

实验 3:使预训练网络适应新领域

该实验展示了如何在不重训练的情况下使预训练 MLP 适应新的数据分布(零样本域适应)。给定图像分类器的输入权重,任务是将其权重变换为在新图像分布(目标域)上表现良好的一组新权重。

在测试时,DWSnet 接收一个分类器,并在一次前向传递中使其适应新域。CIFAR10 数据集是源域,其损坏版本是目标域(图 6)。

图 6:使用 DWSNet 进行领域适应。

结果如表 2 所示。请注意:在测试时,模型应推广到未见过的图像分类器以及未见过的图像。

表 2:使网络适应新领域。

 未来研究方向

英伟达认为,将学习技术应用于深度权重空间的能力提供了许多新的研究方向。首先,寻找有效的数据增强方案来训练权重空间上的函数有可能会提高 DWSNet 的泛化能力。其次,研究如何将排列对称性纳入其他类型的输入架构和层,如 skip 连接或归一化层也是很自然的思考。

最后,将 DWSNet 扩展到现实世界的应用程序,如形变、NeRF 编辑和模型修剪将很有用。可参看 ICML 2023 论文《Equivariant Architectures for Learning in Deep Weight Spaces》。

参考内容:
https://developer.nvidia.com/blog/designing-deep-networks-to-process-other-deep-networks

如何快速掌握大模型技术与实践?

机器之心主办的「Llama 2大模型算法与应用实践」论坛,拆解以 Llama 2 为代表的大模型算法和应用,帮助你系统学习大模型算法理论,并上手搭建一个专属大模型,在实践中巩固学习成果。

你将了解:大模型技术细节、行业落地案例、多模态改造、量化及低成本微调……

想要参加但还在犹豫?机器之心限时开放「拼团」模式,让更多开发者顺利组团,享受优惠价格。赶快扫描下图二维码报名加入!

© THE END 
转载请联系本公众号获得授权
投稿或寻求报道:[email protected]

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
为了输出而输出的茶颜悦色,是第几次“翻车”了?罗马文明的基本脉络 (一)—— 眼收山河,胸存丘壑颠覆对AgRP神经元必要性的认知:科学家发现AgRP神经元对于维持摄食行为和体重并非不可或缺打破大模型黑盒,彻底分解神经元!OpenAI对头Anthropic击破AI不可解释性障碍Nat. Commun. | 浙江大学郭国骥/韩晓平/王晶晶团队基于单细胞图谱和人工智能神经网络的基因组变异解码框架中国文化反向输出?!澳华人妈妈带火“月子文化”,老外拍月子视频爆火网络,成百万流量网红……2023回国-- 入住上海金贸大厦AI「心灵之眼」被看透!大改神经网络,模型生成背后逻辑首现英伟达推出大模型加速包;Meta将训练对标GPT-4的大模型;ChatGPT等成费水大户丨AIGC大事日报我永远都会喜欢中央公园ICML 2023 | 神经网络大还是小?Transformer模型规模对训练目标的影响黄永玉的意思 主要和次要MIT研究人员将Transformer与图神经网络结合,用于设计全新蛋白质英伟达特拉维夫AI峰会取消!老黄内部邮件曝出:英伟达员工也被绑架成功在于远见?英伟达CEO称英伟达5年前把一切都押在了AI上神经图灵机作者提出全新贝叶斯流网络,有效解决离散数据生成问题ICML 2023 | 英伟达神奇研究:用别的模型权重训练神经网络,改神经元不影响输出重训「羊驼」大模型并彻底开放商用,UC伯克利博士生:Meta不愿做就自己做机构点评汇总:英伟达L40带来算力网络预期差减肥困难的原因找到啦!Nature研究揭示肥胖损害人类海马体中的促食欲神经网络,或为极具潜力的肥胖治疗新靶点!类GPT模型训练提速26.5%,清华朱军等人用INT4算法加速神经网络训练年度最绝融资:拿英伟达H100抵押贷款165亿,买更多英伟达GPU扩建10个数据中心ICML 2023 | 英伟达神奇研究:用别的模型权重训练神经网络,改神经元不影响输出!分解大模型的神经元!Claude团队最新研究火了,网友:打开黑盒预训练通用神经网络CHGNet,实现基于电荷的原子模拟有一道菜叫做梅菜扣肉只要你用ReLU,就是“浅度学习”:任意ReLU神经网络都有等效3层网络吴雷钧博士:A.I.神经网络赋能营销新玩法(I) | 深度观点老黄给H100“打鸡血”:英伟达推出大模型加速包,Llama2推理速度翻倍微软开源的大模型太强了,数学推理超ChatGPT,论文、模型权重全部公开Bioinformatics | 来鲁华/邓明华合作:多层级的图神经网络促进蛋白质功能预测Cell | 揭示感觉神经元影响肠道功能的分子机制挑战英伟达H100霸权!IBM模拟人脑造神经网络芯片,效率提升14倍,破解AI模型耗电难题开放模型权重被指将导致AI失控,Meta遭举牌抗议,LeCun:开源AI社区如火如荼细胞疗法重大改进!Nature:哈佛医学院最新研究或可解决帕金森病移植神经元死亡难题,为治疗神经退行性疾病提供新途径!
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。