Redian新闻
>
超越YOLOv8!YOLO-NAS:下一代目标检测基础模型

超越YOLOv8!YOLO-NAS:下一代目标检测基础模型

公众号新闻

点击下方卡片,关注“CVer”公众号

AI/CV重磅干货,第一时间送达

点击进入—>【目标检测】微信技术交流群

转载自:AIWalker

1亮点在哪里?

  • 引入QARepVGG同时利用重参数与8-bit量化的优势;
  • 采用AutoNAC搜索最优尺寸、每个stage的结构,含模块类型、数量以及通道数;
  • 采用混合量化机制进行模型量化,既考虑了每一层对精度与延迟的影响,也考虑了8-bit与16-bit之间切换对整体延迟的影响;
  • 预训练方案:automatically labeled data, self-distillation, and large datasets

总而言之,YOLO-NAS达成目标检测任务新高度,取得了最佳的精度-延迟均衡。值得一提,YOLO-NAS与TensorRT推理引擎完全兼容,且支持INT8量化,达成前所未有的运行时性能

ModelmAPLatency (ms)
YOLO-NAS S47.53.21
YOLO-NAS M51.555.85
YOLO-NAS L52.227.87
YOLO-NAS S INT-847.032.36
YOLO-NAS M INT-851.03.78
YOLO-NAS L INT-852.14.78

2方案简介

受启发于YOLOv6、YOLOv7以及YOLOv8,DECI的研究人员采用AutoNAC搜索比YOLOv8更优的架构,即"We used machine learning to find a new deep learning architecture!"

为什么要用AutoNAC呢? 这是因为手工寻找"正确"结构过于低效且乏味,因此DECI的研究人员采用AutoNAC搜索新的目标检测模型,同时最小化在NVIDIA T4上的推理延迟。

为构建YOLO-NAS,作者构建了一个深不可测的搜索空间(1014)以探索精度-延迟上限。最终,作者从中三样三个"前沿观察点"构建了YOLO-NAS-S,YOLO-NAS-M,YOLO-NAS-L。


3训练简介

YOLO-NAS采用了多阶段训练方式,包含(1)预训练:Object365+COCO伪标签数据;(2)知识蒸馏;(3) DFL,即Distribution Focal Loss

在训练数据方面,作者基于RoboFlow100(由100个不同领域的数据集构成)进行训练以验证其处理复杂检测任务的能力。


下图对比了YOLO-NAS与YOLOv8、YOLOv5、YOLOv7在Roboflow100数据集上的性能。

4量化感知

YOLO-NAS采用了量化感知模块与Selective量化以达成最优性能,即基于延迟-精度均衡考虑在特定层进行了"Skipping量化"。当转换为INT8量化模型后,YOLO-NAS具有更少的精度损失(L-M-S的损失分别为0.45,0.65,0.51mAP)。

YOLO-NAS架构和预训练权重定义了低延迟推理的新领域,也是微调下游任务的绝佳起点。

5上手体验

看完上面的介绍有没有“一头雾水”的感觉,哈哈,上手体验一把。

Step 1. 安装super-gradients

conda create -n sg python=3.7
conda activate sg
pip install super-gradients

Step 2. 命令行测试

from super_gradients.training import models
from super_gradients.common.object_names import Models

net = models.get(Models.YOLO_NAS_S, pretrained_weights='coco')
net.predict("bus.jpg").show()

不出意外的话,你就可以看到下面的输出结果了。

当然,如果出了意外,可以试试用ONNX推理,导出只需一行代码。

models.convert_to_onnx(model=net, input_shape=(3, 640, 640), out_path='yolo-nas-s.onnx')

相关推理code可参考"YOLOv8-TensorRT"中的推理微调一下即可。需要注意以下两点,通过官方工具导出的"bboxes"已经是"xyxy"格式了,所以不需要再执行make_grid, distance2bbox等操作了,直接进行"NMS"即可。但是,OpenCV的NMS要求输入的BBOXES格式为xywh,所以还需要再改一下,^^哈哈哈^^

最后,附上YOLO-NAS的网络结构示意图,这里仅给出了YOLO-NAS-S的示意图,另外两个跟这个整体类似,区别在于Block改为了YOLOv7的ELAN且通道数更多。

点击进入—>【目标检测】微信技术交流群


YOLO-NAS 代码下载


后台回复:最新YOLO,即可下载代码


目标检测和Transformer交流群成立


扫描下方二维码,或者添加微信:CVer333,即可添加CVer小助手微信,便可申请加入CVer-目标检测或者Transformer 微信交流群。另外其他垂直方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch、TensorFlow和Transformer等。


一定要备注:研究方向+地点+学校/公司+昵称(如目标检测或者Transformer+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群


▲扫码或加微信号: CVer333,进交流群

CVer计算机视觉(知识星球)来了!想要了解最新最快最好的CV/DL/AI论文速递、优质实战项目、AI行业前沿、从入门到精通学习教程等资料,欢迎扫描下方二维码,加入CVer计算机视觉,已汇集数千人!


扫码进星球

▲点击上方卡片,关注CVer公众号

整理不易,请点赞和在看

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
清华人工智能研究院「基础模型研究中心」成立!唐杰任研究中心主任,孙茂松任首席科学家Agustín Hernández:中美洲建筑背景下的未来主义巨构ACL 2023 | 持续进化中的语言基础模型芯片“二代目”:英雄主义远去,实用者生存碾压GPT-4!谷歌DeepMind CEO自曝:下一代大模型将与AlphaGo合体IBM:拥抱基础模型与生成式AI,迎接“AI+”新时代浙大滨江院Om中心发布首个大规模图文配对遥感数据集,让通用基础模型也能服务遥感领域剑桥华人团队开源PandaGPT:首个横扫「六模态」的大型基础模型可持续发展目标科普连载之目标九:工业,创新和基础设施CVPR 2023 | 模块化MoE将成为视觉多任务学习基础模型谷歌AI音乐工具开始公测,英国启动对AI基础模型初步审查,网络表演市场营收近2000亿元OpenAI劲敌融资13亿美元;中国团队推首颗AI全自动设计CPU;全球首个医疗多模态基础模型群发布丨AIGC大事日报CVPR 2023 | 北大提出DynamicDet:目标检测器的通用动态架构注意:中国驻美使馆发布赴华签证办理要求7 Papers & Radios | OpenAI用GPT-4解释GPT-2;Meta开源多感官基础模型一眼望去最新大模型排名!中文大模型评测基准SuperCLUE发布6月榜单去加拿大,打算visit banff,jasper,yolo,Glacier,请问几天合适?顺序决策与基础模型如何交叉互惠?谷歌、伯克利等探讨更多可能首个二值量化评测基准来了,北航/NTU/ETH联合提出,论文登ICML 2023南澳散记 (增订本) :第三十章:宗教信仰及其他 (上)LGBTQ彩虹一族&单身贵族&丁克家庭应该如何买保险——Love Is Love无惧不同,骄傲真我ICML 2023 | 基于模块化思想,阿里达摩院提出多模态基础模型mPLUG-2CVPR 2023 | Uni3D: 首个多数据集3D目标检测框架意大利阿西西(Assisi), 漂亮小街“伶荔(Linly)”项目团队全新发布中文Falcon基础模型无需标注海量数据,目标检测新范式OVD让多模态AGI又前进一步AGIEval:准确考察基础模型类人能力的基准评估工具上交大&上海AI lab研发胸部X-ray疾病诊断基础模型,成果入选Nature子刊CVPR 2023 | 可扩展的视频基础模型预训练范式:训练出首个十亿参数量视频自监督大模型Prompt Sapper:基础模型的灵魂伴侣,AI服务的创新工场Prompt一键抠图!Meta发布史上首个图像分割基础模型,开创CV新范式美国议员深刻反思:中国改变了资本主义,美国必须刀刃向内李嘉诚“95后”孙女重磅亮相,香港豪门三代目悉数登场中国AI大模型地图发布;GPT研究烧掉30亿美金;美团正自研基础模型丨AIGC大事日报从R-CNN到YOLOv8!目标检测算法综述
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。