Redian新闻
>
华为 | Focus-DETR:30%Token就能实现SOTA性能,效率倍增

华为 | Focus-DETR:30%Token就能实现SOTA性能,效率倍增

公众号新闻

来自:机器之心

进NLP群—>加入NLP交流群

目前 DETR 类模型已经成为了目标检测的一个主流范式。但 DETR 算法模型复杂度高,推理速度低,严重影响了高准确度目标检测模型在端侧设备的部署,加大了学术研究和产业应用之间的鸿沟。

来自华为诺亚、华中科技大学的研究者们设计了一种新型的 DETR 轻量化模型 Focus-DETR 来解决这个难题。


  • 论文地址:https://arxiv.org/abs/2307.12612
  • 代码地址 - mindspore:https://github.com/linxid/Focus-DETR
  • 代码地址 - torch:https://github.com/huawei-noah/noah-research/tree/master/Focus-DETR

为实现模型性能和计算资源消耗、显存消耗、推理时延之间的平衡,Focus-DETR 利用精细设计的前景特征选择策略,实现了目标检测高相关特征的精确筛选;继而,Focus-DETR 进一步提出了针对筛选后特征的注意力增强机制,来弥补 Deformable attention 远距离信息交互的缺失。相比业界全输入 SOTA 模型, AP 降低 0.5 以内,计算量降低 45%,FPS 提高 41%,并在多个 DETR-like 模型中进行了适配。

作者对多个 DETR 类检测器的 GFLOPs 和时延进行了对比分析,如图 1 所示。从图中发现,在 Deformable-DETR 和 DINO 中,encoder 的计算量分别是 decoder 计算量的 8.8 倍和 7 倍。同时,encoder 的时延大概是 decoder 时延的 4~8 倍。这表明,提升 encoder 的效率至关重要。

图 1:多个 DETR 类检测器的计算量和时延对比分析

网络结构

Focus-DETR 包括一个 backbone,一个由 dual-attention 组成的 encoder 和一个 decoder。前景选择器(Foreground Token Selector)在 backbone 和 encoder 之间,是一个基于跨多尺度特征的自顶向下评分调制,用来确定一个 token 是否属于前景。Dual attention 模块通过多类别评分机制,选择更细粒度的目标 token,然后将其输入到一个自注意模块来弥补 token 交互信息的缺失。

图 2 :Focus-DETR 整体网络结构

计算量降低:前景筛选策略

目前已经有一些对于前景 token 进行剪枝提升性能的方法。例如,Sparse DETR(ICLR2022)提出采用 decoder 的 DAM(decoder attention map)作为监督信息。然而作者发现,如图 3 所示,Sparse DETR 筛选的 token 并不都是前景区域。作者认为,这是由于 Sparse DETR 使用 DAM 来监督前景 token 导致的,DAM 会在训练的时候引入误差。而 Focus-DETR 使用 ground truth(boxes 和 label)来监督前景的 token 的筛选。

图 3:Focus-DETR 和 Sparse DETR 在不同 feature map 上保留的 token 对比

为了更好地训练前景筛选器,作者优化了 FCOS 的前背景标签分配策略,如图 4 所示。作者首先为不同特征映射的包围框设置了一个大小范围。与传统的多尺度特征标签分配方法不同,它允许相邻两个特征尺度之间的范围重叠,以增强边界附近的预测能力。对每个拥有步长  的特征  ,其中代表多尺度特征的层级序号, 代表在二维特征图上的位置坐标,作者定义该特征在原图上的映射位置为 ,那么 因此  特征所对应的标签应该为:


其中  代表坐标和真值框中心之间的最大棋盘距离,表真值目标框, 分别代表被第层特征图预测的目标的尺度的最大值和最小值,由于尺度重叠设置,

图 4. 前背景标签分配可视化

此外,来自不同特征映射的特征选择的差异也被忽略,这限制了从最合适的分辨率选择特征的潜力。为弥补这一差距,Focus-DETR 构造了基于多尺度 feature map 的自顶向下的评分调制模块,如图 5 所示。为了充分利用多尺度特征图之间的语义关联,作者首先使用多层感知器 (MLP) 模块来预测每个特征图中的多类别语义得分。考虑到高层语义特征,低层语义特征包含更丰富的语义信息,作者利用高层 feature map 的 token 重要性得分,作为补充信息来调制低层 feature map 的预测结果。

图 5:top-down 前景筛选评分调制策略

细粒度特征增强策略

在依靠前期设计的前景筛选器得到较为准确的前景特征后,Focus-DETR 使用一种有效的操作来获得更为细粒度的特征,利用这些细粒度特征以获得更好的检测性能。直观地说,作者假设在这个场景中引入更细粒度的类别信息将是有益的。基于这一动机,作者提出了一种新的注意力机制,并结合前景特征选择,以更好地结合利用细粒度特征和前景特征。

如图 2 所示,为了避免对背景 token 进行冗余的计算,作者采用了一种同时考虑位置信息和类别语义信息的堆叠策略。具体来说,预测器  (・) 计算出的前景评分和类别评分的乘积将作为作者最终的标准来确定注意力计算中涉及的细粒度特征,即:


其中分别代表前景得分和类别概率。

与两阶段 Deformable DETR 的 query 选择策略不同,Focus-DETR 的多类别概率不包括背景类别 (∅)。该模块可以被视为一个 self-attention ,对细粒度特征进行增强计算。然后,已增强的特征将被 scatter 回原始的前景特征并对其进行更新。

实验结果

主要结果

如表一所示,作者将 Focus-DETR 在 COCO 验证集上和其他模型的性能进行比较。可以发现同样基于 DINO,Focus-DETR 仅使用 30% token 的情况下,超过 Sparse DETR 2.2 个 AP。相比原始 DINO,仅损失 0.5 个 AP,但是计算量降低 45%,推理速度提升 40.8%。

表 1:总体对比实验结果

模型效能分析

在图 6 中,从不同模型的精度和计算量之间的关系来看,Focus-DETR 在精度和计算复杂度之间达到了最好的平衡。整体来看对比其他模型,获得了 SOTA 的性能。

图 6 不同模型测试精度和计算复杂度之间的关联分析 

消融实验

如表 2 所示,作者针对模型设计进行消融实验,以验证作者提出的算法的有效性。

表 2 本研究提出的前景特征剪枝策略和细粒度特征自注意力增强模块对实验性能的影响

1. 前景特征选择策略的影响 

直接使用前景得分预测 AP 为 47.8,增加 label assignment 策略生成的标签作为监督,AP 提升 1.0。增加自上而下的调制策略,能够提升多尺度特征图之间的交互,AP 提升 0.4。这表明提出的策略对于提升精度是非常有效的。如图 7 可视化可以发现,Focus-DETR 可以精确地选择多尺度特征上的前景 token。并且可以发现,在不同尺度的特征度之间,可以检测的物体存在重叠,这正是因为 Focus-DETR 使用了交叠的设置导致的。

图 7 多尺度特征保留的 token

2. 自上而下的评分调制策略的影响 

表 3. 多尺度特征图前景评分的关联方法,作者尝试自顶向下和自底向上的调制。

作者对比了自上而下的调制策略和自下而上的调制策略的影响,对比结果可以发现,作者提出的自上而下的调制策略可以获得更好的性能。

3. 前景保留比率对实验性能的影响 

表 4.Focus-DETR、Sparse DETR 和 DINO+Sparse DETR 保留前景 token 的比例

作者对比了不同的剪枝比例的性能,从实验结果可以发现,Focus-DETR 在相同的剪枝比例情况下,均获得了更优的结果。

总结

Focus-DETR 仅利用 30% 的前景 token 便实现了近似的性能,在计算效率和模型精度之间取得了更好的权衡。Focus-DETR 的核心组件是一种基于多层次的语义特征的前景 token 选择器,同时考虑了位置和语义信息。Focus-DETR 通过精确地选择前景和细粒度特征,并且对细粒度特征进行语义增强,使得模型复杂度和精度实现更好平衡。


进NLP群—>加入NLP交流群

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
本周末启幕 | 2023 China Focus @BostonSocure任命CFO为IPO做准备 估值已达45亿美元​下一代Transformer:RetNet结构可视化及Vision RetNet展望直播预告:基于AIACC加速器快速实现Stable-Diffusion AI绘画|阿里云加速AIGC技术公开课GQ Focus | 作为“社恐”,我到底该怎么办?陈都灵、李松蔚邀你见面聊国内供电专科毕业获得澳洲EA的电气绘图员职业评估认证,获邀分数感人,成功率倍增!ICCV 2023 | 华为诺亚提出全新目标检测器Focus-DETRTroubled Singing Reality Show Accused of Mistreating Coco Lee无自注意力照样高效!RIFormer开启无需token mixer的Transformer结构新篇章里斯本唐路易斯花园(Jardim Dom Luis),城中花园搜狗输入法这个新功能,让触屏打字也能实现「盲打」| Feel Good 周报碧博生物董事长兼CEO于China Focus波士顿峰会发表演讲College Essay系列(三十二):Waitlist 文书 之 Williams 和 VanderbiltLeCun力挺!马毅教授五年集大成之作:数学可解释的白盒Transformer,性能不输ViTAutoFocusFormer:摆脱传统栅格,采用自适应下采样的图像分割30%Token就能实现SOTA性能,华为诺亚轻量目标检测器Focus-DETR效率倍增Transformer取代者登场!微软、清华刚推出RetNet:成本低、速度快、性能强苹果、俄勒冈州立提出AutoFocusFormer: 摆脱传统栅格,采用自适应下采样的图像分割[电脑] 实现SSD自由,联力X500FX W790平台装机文革“G”与“P”辨LeCun力挺,马毅教授五年集大成之作:完全数学可解释的白盒Transformer,性能不输ViT[9月26日]科学历史上的今天——金·赫尔尼(Jean Amédée Hoerni)the juxtaposition of these two images-juxtaposing hard and soft,ICCV 2023 | 更快更强!北理工&旷视提出StreamPETR:纯视觉感知与激光雷达终有一战之力!那条令人生更完整的T线China Floods: What’s the Cause, Why’s Rescue Been So Difficult?Ex-Soldier Sleeps in Cave for 22 Years to Protect Song TreasuresHélène Binet:光的哲学家SpringBoot 中的自带工具类,开发效率倍增!节约资源、提升性能,字节跳动超大规模 Metrics 数据采集的优化之道炸裂!微软新作LongNet:将Transformer扩展到10亿个Tokens学会这个技能,30岁后仍能实现人生跃迁刷榜13个暗光增强基准!清华大学联合ETH等开源Retinexformer:亮、暗都有细节 | ICCV 2023突破自监督学习效率极限!马毅、LeCun联合发布EMP-SSL:无需花哨trick,30个epoch即可实现SOTAICCV 2023 | 通向3D感知大模型的必由之路!UniTR:统一多模态Transformer Encoder!
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。