Redian新闻
>
CVPR 2023 | 无中生有:面向实时点云全景分割的中心聚焦网络

CVPR 2023 | 无中生有:面向实时点云全景分割的中心聚焦网络

科技

©PaperWeekly 原创 · 作者 | 李笑颜

单位|北京工业大学

论文地址:

https://openaccess.thecvf.com/content/CVPR2023/papers/Li_Center_Focusing_Network_for_Real-Time_LiDAR_Panoptic_Segmentation_CVPR_2023_paper.pdf

代码地址:

https://github.com/GangZhang842/CFNet


简介

LiDAR 全景分割对 LiDAR 点云中每一个点进行分类并赋予物体实例 ID,它能够帮助自动驾驶车全面理解环境中的物体和场景,需要实时地运行。现有无候选框(proposal-free)方法计算点到物体的实例中心的距离,并依据中心点位置聚类得到物体,该类方法的速度虽然较基于候选框的方法有明显提升,但仍存在两个问题:


1)由于 LiDAR 点云聚集在物体表面,物体的中心点在三维点云中通常不存在实体,因此较难建模;


2)基于中心点的聚类模块的计算成本高昂。因此,现有方法在性能和效率上均有提升空间。


为了实现准确、实时的 LiDAR 全景分割,本文提出一种新型的中心聚焦网络(CFNet):


1)提出了中心聚焦特征编码(CFFE),通过移动三维点来填充物体中心,“无中生有”地显示建模原始 LiDAR 点云与虚拟实例中心之间的关系;


2)提出了一种快速的重复中心删除模块(CDM),以代替现有方法中的聚类模块,为每个实例选择一个中心。


在 SemanticKITTI 和 nuScenes 上的实验表明,我们提出的 CFNet 性能超越了现有 LiDAR 全景分割算法,并且比当前最快的方法快 1.6 倍。



方法

CFNet 的总体框架图如图所示。主要包含四个组成部分:


1)为了加速算法,采用基于 2D 投影的骨干网络提取在 2D 空间上提取特征;


2)为解决不存在的实例中心建模难的问题,中心聚焦特征编码(CFFE)模块模拟并增强了实例中心的特征;


3)全景分割头预测输出结果,包括:现有方法中常用的语义分割、距中心点的偏移量,以及本文新增的偏移量置信度;


4)在推理期间,重复中心删除模块(CDM)为每个物体保留一个中心,进而实现实例分割,并融合生成最终的全景分割结果。


下面,重点介绍其中较为重要的中心聚焦特征编码和重复中心删除模块。


中心聚焦特征编码(CFFE)

该模块的主要思想是,将物体表面的点移动到物体中心,“无中生有”,形成物体中心的实体点云,再进行特征提取,以显示建模空间中不存在的物体中心。具体地,


1)Intermediate Result Prediction:首先采用原始三维点和二维投影特征,估计一次全景分割结果。其中,语义分割仅用于中间结果的损失计算。


2)Center Feature Generation:将偏移量置信度较高的三维点根据估计的中心点偏移量进行移动,产生移动后的点(shifted points)坐标,即虚拟的中心点位置。将移动后的三维点云特征()通过 P2G 操作投影到二维空间,得到

3)Feature Enchancement Module:将上述二维特征与前面的未移动的二维特征()进行拼接,输入后面的网络,进行预测。

重复中心删除模块(CDM)


该模块受检测中的 box nms 操作启发,用于快速去除重复的中心点。使用 CFFE 模块进行特征增强后,估计的偏移量更加准确。根据这种偏移量移动物体表面的点后,三维点将紧凑地聚集在物体中心。CDM 模块将这些三维点按照置信度进行排序,依次取置信度最高的点,并抑制掉距离在d内的其他中心点。


损失函数


CFNet 总体损失函数为,

主要包含以下几个部分:

1)语义分割结果产生的损失与 CPGNet [2] 方法相似为 weighted cross-entropy 损失 、Lovasz-Softmax 损失 和变换一致性损失

2)距中心点的偏移量产生的损失为 L2 损失 ,计算方法如下

4)偏移量置信度估计是本文新提出的任务,它对应的标签为

即距中心点的偏移量估计误差越大,对应的置信度越低。采用带权重的二元交叉熵损失作为该分支的损失函数,以人为侧重对 things 三维点的刻画。


实验结果

在 SemanticKITTI 测试集上与现有方法的对比结果如下表

在 nuScenes 验证集上与现有方法的对比结果如下表



参考文献

[1] Xiaoyan Li, Gang Zhang, Boyue Wang, Yongli Hu, and Baocai Yin. Center Focusing Network for Real-Time LiDAR Panoptic Segmentation. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), pages 13425-13434, 2023. 【代码 https://github.com/GangZhang842/CFNet】【PDF https://openaccess.thecvf.com/content/CVPR2023/papers/Li_Center_Focusing_Network_for_Real-Time_LiDAR_Panoptic_Segmentation_CVPR_2023_paper.pdf】

[2] Xiaoyan Li, Li Xiaoyan, Gang Zhang, Hongyu Pan, Zhenhua Wang. "CPGNet: Cascade Point-Grid Fusion Network for Real-Time LiDAR Semantic Segmentation." In Proceedings of the IEEE International Conference on Robotics and Automation (ICRA). 2022.【代码 https://github.com/GangZhang842/CPGNet】【PDF https://arxiv.org/abs/2204.09914】



更多阅读



#投 稿 通 道#

 让你的文字被更多人看到 



如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。


总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 


PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。


📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算


📬 投稿通道:

• 投稿邮箱:[email protected] 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿


△长按添加PaperWeekly小编




🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧


·
·

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
蓝色狂想曲宇恒&数城未来:面向城巿更新的中国城巿TOD指数研究报告ICCV 2023 | 实现实时六自由度物体跟踪,深度主动轮廓模型DeepAC来了WHAT A 2023 GOVERNMENT SHUTDOWN MEANS FOR YOUJMT 2023.08.30NeurIPS 2023 | PointGPT:点云和GPT大碰撞!点云的自回归生成预训练今年这个方向在CVPR上杀疯了!CVPR 2024 这个禁令取消!学妹中了CVPR顶会以后...华为&中科大提出TinySAM:手机就能实时跑的分割一切模型前瞻产业研究院:城市产业画像系列2023年中山市产业全景分析报告CVPR、ICCV 2023等顶会论文都在这里了!今年这个方向在CVPR顶会上杀疯了!CVPR 2023最佳论文作者李弘扬:端到端自动驾驶的前景与挑战安谋科技“山海” S20F 初探:面向智能汽车 SoC 的安全解决方案日本“彼岸”两“清明”​ICCV 2023 | 超越SAM!EntitySeg:更少的数据,更高的分割质量夏婳:两情难相知(十一)顶刊MIA 2023!PUNet:参数高效医学图像分割的提示微调ICCV 2023 | CLIP驱动的器官分割和肿瘤检测通用模型“无中生有”!中方坚决反对分割一切"3D高斯"来了!上交&华为提出SAGA:几毫秒完成3D分割一切!我中了CVPR顶会论文以后....屠榜CVPR!Transformer视频教程发布大嫂杨绒花(上)JMT 2023.09.01CVPR 2024 延期!ICCV 2023|南洋理工大学开源大规模语言视频分割数据集MeViS一篇CVPR是如何炼成的?卷上天了!如何看待CVPR 2024投稿ID突破18000?JMT 2023.08.29分割一切「3D高斯」版来了:几毫秒完成3D分割、千倍加速旅美散记(20):不打不相识CVPR 2023 | MovieChat: 集成视觉模型和LLM的长视频理解新型框架这个方向在CVPR 2024上杀疯了!ControlNet、「分割一切」等热门论文获奖,ICCV 2023论文奖项公布年终最后一次盘点!最新最全顶会论文合集(含AAAI24、CVPR、ECCV、NIPS、ACL、ICML等)云岫资本:2023中国功率半导体和第三代半导体行业发展现状和前景分析报告ICCV 2023 | 面向视觉-语言导航的实体-标志物对齐自适应预训练方法JMT 2023.09.02
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。