Redian新闻
>
CVPR 2024 | 微软新作StarNet:超强轻量级Backbone

CVPR 2024 | 微软新作StarNet:超强轻量级Backbone

公众号新闻

点击下方卡片,关注“CVer”公众号

AI/CV重磅干货,第一时间送达

点击进入—>【Mamba/扩散/多模态】交流群

添加微信:CVer5555,小助手会拉你进群!

扫描下方二维码,加入CVer学术星球可以获得最新顶会/顶刊上的论文ideaCV从入门到精通资料,及最前沿应用!发论文/搞科研/涨薪,强烈推荐!

论文揭示了star operation(元素乘法)在无需加宽网络下,将输入映射到高维非线性特征空间的能力。基于此提出了StarNet,在紧凑的网络结构和较低的能耗下展示了令人印象深刻的性能和低延迟

转载自:晓飞的算法工程笔记

论文: Rewrite the Stars

  • 论文地址:https://arxiv.org/abs/2403.19967
  • 论文代码:https://github.com/ma-xu/Rewrite-the-Stars
  • 作者的介绍:神经网络中,element-wise mutiplication为什么效果好?CVPR’24

Introduction


  最近,通过元素乘法融合不同的子空间特征的学习范式越来越受到关注,论文将这种范例称为star operation(由于元素乘法符号类似于星形)。

  为了便于说明,论文构建了一个用于图像分类的demo block,如图 1 左侧所示。通过在stem层后堆叠多个demo block,论文构建了一个名为DemoNet的简单模型。保持所有其他因素不变,论文观察到逐元素乘法(star operation)在性能上始终优于求和,如图 1 右侧所示。

  在这项工作中,论文证明star operation具有将输入映射到极高维的非线性特征空间的能力,从而解释star operation的强表达能力。论文不依赖直观或假设的高级解释,而是深入研究star operation的细节。通过重写和重新表述star operation计算过程,论文发现这个看似简单的运算实际可以生成一个新的特征空间,含大约 线性独立维度。

  与增加网络宽度(又称通道数)的传统神经网络不同,star operation类似于在不同通道上进行成对特征乘法的核函数,特别是多项式核函数。当应用到神经网络中并通过多层堆叠时,每一层都会带来隐式维度复杂性的指数增长。只需几层,star operation就可以在紧凑的特征空间内实现几乎无限的维度。在紧凑的特征空间内计算,同时受益于隐含的高维度,这就是star operation的独特魅力所在。

  根据上述见解,论文推断star operation本质上更适合高效、紧凑的网络,而不是常规使用的大型模型。为了验证这一点,论文提出了一种概念验证的高效网络StarNet,其特点是简洁和高效。StarNet非常简单,缺乏复杂的设计和微调的超参数。在设计理念上,StarNet与现有网络明显不同,如表 1 所示。利用star operationStarNet甚至可以超越各种精心设计的高效模型,如MobileNetv3EdgeViTFasterNet等。这些结果不仅从经验上验证了论文对恒星运行的见解,而且强调了其在实际应用中的实用价值。

  论文简要总结并强调这项工作的主要贡献如下:

  • 证明了star operation的有效性,如图 1 所示,揭示了star operation具有将特征投影到极高维隐式特征空间的能力,类似于多项式核函数。
  • 从分析中汲取灵感,确定了star operation在高效网络领域的实用性,并提出了概念验证模型StarNet。无需复杂的设计或精心选择的超参数即可实现高性能,超越了许多高效的设计。
  • 基于star operation存在大量未探索的可能性,论文的分析可以作为指导框架,引导研究人员远离随意的网络设计尝试。

Rewrite the Stars


Star Operation in One layer

  在单层神经网络中,star operation通常写为 ,通过逐元素乘法融合两个线性变换的特征。为了方便起见,将权重矩阵和偏置合并为一个实体 ,同样地,通过 ,得到star operation

  为了简化分析,论文重点关注涉及单输出通道转换和单元素输入的场景。具体来说,定义 ,其中 为输入通道数。这可以随时进行 扩展以适应多个输出通道,以及处理多元素输入

  一般来说,可以通过以下方式重写star operation

  其中 作为通道下标, 为个子项的系数:

  重写star operation后,可以将其展开为 个不同子项的组合,如等式 4 所示。值得注意的是,除了 的每个子项(这里是 偏置项)都与 呈非线性关联,表明它们是单独的隐式维度。

  因此,在 维度空间中使用计算效率高的star operation,可以得到)的隐式维度特征空间。从而在显著放大特征维度的同时,不会在单层内产生任何额外的计算开销,这个突出的属性与内核函数有着相似的理念。

Generalized to multiple layers

  通过堆叠多个层,可以递归地将隐式维度以指数方式增加到几乎无限。

  对于宽度为 的初始网络层,应用一次star operation),可得到 的隐式特征空间内。

  让 表示第 star operation的输出,可得:

  也就是说,通过堆叠 层可以隐式获得 维特征空间。例如,给定一个宽度为 128 的 10 层网络,通过star operation获得的隐式特征维数近似为 ,相当于无限维度。因此,通过堆叠多个层,即使只有几个层,star operation也可以以指数方式大幅放大隐式维度。

Special Cases

  实际上,并非所有star operation都遵循公式 1 那样,两个分支都进行变换。例如,VANSENet包含一个identity分支,而GENet-无需任何需学习的变换(池化、最近邻插值后乘回原特征)即可运行。

  • Case I: Non-Linear Nature of and/or

   在实际场景中,大量研究(例如Conv2FormerFocalNet等)通过合并激活函数将变换函数 和/或 变为非线性。尽管如此,最重要的其实是看通道间的处理是否像公式 2 那样实现,是则其隐式维度仍然保持不变(大约为 )。

  • Case II:

   当移除 变换时,隐式维度从大约 减少到

  • Case III:

  在这种情况下,star operation将特征从特征空间 转换为 的新特征空间。

  有几个值得注意的方面需要考虑:

  • star operation及其特殊情况通常会(尽管不一定)与空间交互集成,比如通过池化或卷积实现线性变换。但许多这些方法只强调扩大感受野带来的好处,往往忽视隐式高维空间赋予的优势。
  • 组合这些特殊情况是可行的,如Conv2Former合并了Case ICase II,以及GENet-混合了Case ICase III
  • 虽然Case IICase III可能不会显著增加单层的隐式维度,但使用线性层(主要用于通道通信)和skip连接依然可以通过堆叠多个层来实现高隐式维度。

Proof-of-Concept: StarNet


  鉴于star operation的独特优势—在低维空间中计算的同时产生高维特征,论文确定了其在高效网络架构领域的实用性。因此,论文提出StarNet作为概念验证模型,特点是极其简约的设计和显著减少的人为干预。尽管StarNet很简单,但它展示了卓越的性能,强调了star operation的功效。

StarNet Architecture

StarNet采用 4 级分层架构,利用卷积层进行下采样,并使用修改后的demo block进行特征提取。为了满足效率的要求,将Layer Normalization替换为Batch Normalization,并将其放置在深度卷积之后(可以在推理时融合)。受到MobileNeXt的启发,论文在每个块的末尾加入了一个深度卷积。通道扩展因子始终设置为 4,网络宽度在每个阶段加倍。遵循MobileNetv2设计,demo block中的GELU激活被替换为ReLU6

Experimental


Star Operation

StarNet

何恺明在MIT授课的课件PPT下载

在CVer公众号后台回复:何恺明,即可下载本课程的所有566页课件PPT!赶紧学起来!

CVPR 2024 论文和代码下载

在CVer公众号后台回复:CVPR2024,即可下载CVPR 2024论文和代码开源的论文合集


Mamba、多模态和扩散模型交流群成立

扫描下方二维码,或者添加微信:CVer5555,即可添加CVer小助手微信,便可申请加入CVer-Mamba、多模态学习或者扩散模型微信交流群。另外其他垂直方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch、TensorFlow和Transformer、NeRF、3DGS、Mamba等。


一定要备注:研究方向+地点+学校/公司+昵称(如Mamba、多模态学习或者扩散模型+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群

▲扫码或加微信号: CVer5555,进交流群


CVer计算机视觉(知识星球)来了!想要了解最新最快最好的CV/DL/AI论文速递、优质实战项目、AI行业前沿、从入门到精通学习教程等资料,欢迎扫描下方二维码,加入CVer计算机视觉(知识星球),已汇集近万人!


扫码加入星球学习


▲点击上方卡片,关注CVer公众号

整理不易,请点赞和在看

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
精度最高降幅60%!SOTA只是假象?CVPR 2024为你揭示CLIP和LLaVA-Next等模型“骗局”!比LERF提速199倍!清华哈佛发布LangSplat:三维语义高斯泼溅 | CVPR 2024 HighlightU-Net杀回来了!华为新作U-DiT:让DiT拥抱U-Net!性能提升显著!CVPR 2024 | 加快199倍!清华和哈佛提出LangSplat:3D语义高斯泼溅CVPR 2024 | 与任务无关的多模态数据也能提升Transformer性能!港中文&腾讯新作Rocket Internet:以复刻商业模式闻名的投资孵化公司CVPR 2024 | 中科大&微软提出:迈向更统一的上下文视觉理解CVPR 2024|文本或图像提示精准编辑 3D 场景,美图&信工所&北航&中大联合提出 3D 编辑方法 CustomNeRFCVPR世界第二仅次Nature!谷歌2024学术指标出炉,NeurIPS、ICLR跻身前十LeCun登上月球?南开&字节新作StoryDiffusion:让多图漫画和长视频更连贯※※※2024【花样女神节】活动合辑※※※超越Llama-2!微软新作Phi-3:手机上能跑的语言模型CVPR 2024高分论文:全新生成式编辑框架GenN2N,统一NeRF转换任务CVPR 2024 | 北大提出HoT:高效3D人体姿态估计新框架CVPR 2024 | DeiT全新升级!DeiT-LT:针对长尾数据的改进模型CVPR 2024 | CLIP当成RNN!无需训练即可分割无数概念|牛津&谷歌新作CaRIEEE HPCA 2024|LiteIO:高性能、轻量级的存储池化架构国防科大新作SceneTracker:在4D时空中追踪万物!CVPR 24|ETH Zurich等团队:重新定义小样本3D分割任务,新基准开启广阔提升潜力!CVPR 2024 | E2STR:基于多模态上下文学习构建的自进化文本识别模型2024,哪个包会是LV的断货王?CVPR 2024 | 擅长处理复杂场景和语言表达,清华&博世提出全新实例分割网络架构MagNet我兒子今年(2024)進了MITCVPR 2024满分论文,英伟达开源BOP排行榜6D物体姿态第一名方法微软新 AI PC 硬刚 MacBook !抢先苹果装上 GPT-4o,还有一个「时光倒流」功能我的岁月(二十七)合唱《深深的海洋》&《将进酒》AI早知道|字节Coze海外版支持GPT-4o;文心一言上线新功能;微软开放Phi-3 轻量级AI模型CVPR 2024 | MotionEditor:首个面向动作编辑的视频扩散模型iPhone就能跑!微软推出轻量级模型Phi-3,性能堪比GPT-3.5 Turbo,AI的未来在手机端?学什么准备未来(四)环保不在碳排放房前华盛顿山楂树之五——松鼠戏玩篇CVPR 2024 | 李飞飞和吴佳俊团队新作「BVS」套件评估计算机视觉模型常照诗词选微软新作「Mora」,复原了Sora春季观鹤:2024 科州给NeRF开透视眼!稀疏视角下用X光进行三维重建,9类算法工具包全开源 | CVPR 2024有不烦车子的自动停启功能的吗?2024 BMW X5ECCV 2024 | 清华提出PYRA:超轻量级ViT适应&推理高效微调模块CVPR 2024 | 北大&电子科大提出RCBEVDet:毫米波雷达-相机多模态的感知架构
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。