Redian新闻
>
NeurIPS 2023 & MICCAI 2023:可兼容软标签的语义分割损失函数

NeurIPS 2023 & MICCAI 2023:可兼容软标签的语义分割损失函数

公众号新闻

点击下方卡片,关注“CVer”公众号

AI/CV重磅干货,第一时间送达

点击进入—>【图像分割】交流群

扫描下方二维码,加入CVer学术星球可以获得最新顶会/顶刊上的论文ideaCV从入门到精通资料,及最前沿应用!发论文搞科研,强烈推荐!

论文1:https://arxiv.org/pdf/2302.05666
论文2:https://arxiv.org/pdf/2303.16296
代码链接:
https://github.com/zifuwanggg/JDTLosses

内容简介  

Jaccard Index(又称交并比,IoU)和Dice Score常被用来评估语义分割模型的性能,与之对应的Soft Jaccard损失,Soft Dice损失和Soft Tversky则能直接优化这些评价指标。这些损失函数和像素级的损失函数(例如Cross Entropy损失,Focal损失)一起使用时,经常能取得很好的效果。然而我们发现因为这些损失函数和软标签不兼容,所以它们无法支持一些重要的训练技术(例如标签平滑,知识蒸馏,半监督学习,多标注员等)。为了解决这个问题,我们引入了JDT损失。JDT损失是原有损失函数的变体,包括了Jaccard Metric损失,Dice Semimetric损失和Compatible Tversky损失。JDT损失在硬标签下与原有的损失函数等价,但能完全兼容软标签。我们将JDT损失应用于软标签的四个重要场景:标签平滑,知识蒸馏,半监督学习和多标注员,展示了它们提高模型准确性和校准性的能力。

现有的损失函数

由于Jaccard Index和Dice Score是定义在集合上的,所以并不可导。为了使它们可导,目前常见的做法有两种:一种是利用集合和相应向量的Lp模之间的关系,例如Soft Jaccard损失(SJL),Soft Dice损失(SDL)和Soft Tversky损失(STL)。它们把集合的大小写成相应向量的L1模,把两个集合的交集写成两个相应向量的内积。另一种则是利用Jaccard Index的submodular性质,在集合函数上做Lovasz拓展,例如Lovasz-Softmax损失(LSL)。   

这些损失函数都假定神经网络的输出x是一个连续的向量,而标签y则是一个离散的二值向量。如果标签为软标签,即y不再是一个离散的二值向量,而是一个连续向量时,这些损失函数就不再兼容。以SJL为例,考虑一个简单的单像素情况:

可以发现,对于任意的y > 0,SJL都将在x = 1时最小化,而在x = 0时最大化。因为一个损失函数应该在x = y时最小化,所以这显然是不合理的。

与软标签兼容的损失函数  

为了使原有的损失函数与软标签兼容,需要在计算两个集合的交集和并集时,引入两个集合的对称差:

注意两个集合的对称差可以写成两个相应向量的差的L1模:

把以上综合起来,我们提出了JDT损失。它们分别是SJL的变体Jaccard Metric损失(JML),SDL的变体Dice Semimetric 损失(DML)以及STL的变体Compatible Tversky损失(CTL)。

JDT损失的性质  

我们证明了JDT损失有着以下的一些性质。

性质1:JML是一个metric,DML是一个semimetric。      

性质2:当y为硬标签时,JML与SJL等价,DML与SDL等价,CTL与STL等价。

性质3:当y为软标签时,JML,DML,CTL都与软标签兼容,即x = y ó f(x,y) = 0。

由于性质1,它们也因此被称为Jaccard Metric损失和Dice Semimetric损失。性质2说明在仅用硬标签进行训练的一般场景下,JDT损失可以直接用来替代现有的损失函数,而不会引起任何的改变。

如何使用JDT损失  

我们进行了大量的实验,总结出了使用JDT损失的一些注意事项。

注意1:根据评价指标选择相应的损失函数。如果评价指标是Jaccard Index,那么应该选择JML;如果评价指标是Dice Score,那么应该选择DML;如果想给予假阳性和假阴性不同的权重,那么应该选择CTL。其次,我们的一个同期工作[1]提出了一系列细粒度的评价指标,在优化这些指标时,JDT损失也应做相应的更改。

注意2:结合JDT损失和像素级的损失函数(例如Cross Entropy损失,Focal损失)。本文发现0.25CE + 0.75JDT一般是一个不错的选择。

注意3:最好采用一个较短的epoch来训练。我们的同期工作[1]发现加上JDT损失后,一般只需要Cross Entropy损失训练时一半的epoch。

注意4:在多个GPU上进行分布式训练时,如果GPU之间没有额外的通信,JDT损失会错误的优化细粒度的评价指标[1],从而导致其在传统的mIoU上效果变差。

注意5:在极端的类别不平衡的数据集上进行训练时,需注意JDL损失是在每个类别上分别求损失再取平均,这可能会使训练变得不稳定。

实验结果

实验证明,与Cross Entropy损失的基准相比,在用硬标签训练时,加上JDT损失可以有效提高模型的准确性。引入软标签后,可以进一步提高模型的准确性和校准性。只需在训练时加入JDT损失项,本文取得了语义分割上的知识蒸馏,半监督学习和多标注员的SOTA。   

           

未来工作

我们只考虑了JDT损失作为语义分割上的损失函数,但它们也可以应用在其他的任务上,例如传统的分类任务。其次,JDT损失只被用在标签空间中,但我们认为它们能被用于最小化任意两个向量在特征空间上的距离,例如用来替代Lp模和cosine距离。

参考文献  

[1] Zifu Wang, Maxim Berman, Amal Rannen-Triki, Philip H.S. Torr, Devis Tuia, Tinne Tuytelaars, Luc Van Gool, Jiaqian Yu, Matthew B. Blaschko. Revisiting Evaluation Metrics for Semantic Segmentation: Optimization and Evaluation of Fine-grained Intersection over Union. NeurIPS, 2023.    

点击进入—>【CV技术和求职】交流群


图像分割交流群成立

扫描下方二维码,或者添加微信:CVer444,即可添加CVer小助手微信,便可申请加入CVer-图像分割微信交流群。另外其他垂直方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch、TensorFlow和Transformer、NeRF等。


一定要备注:研究方向+地点+学校/公司+昵称(如图像分割+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群

▲扫码或加微信号: CVer444,进交流群


CVer计算机视觉(知识星球)来了!想要了解最新最快最好的CV/DL/AI论文速递、优质实战项目、AI行业前沿、从入门到精通学习教程等资料,欢迎扫描下方二维码,加入CVer计算机视觉(知识星球),已汇集近万人!


扫码加入星球学习


▲点击上方卡片,关注CVer公众号

整理不易,请点赞和在看

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
20%的杨幂+80%的泰勒长什么样?小红书风格化AI来了,可兼容SD和ControlNetNeurIPS 2023 | 港科大&华为提出CoDA:开放词汇3D目标检测新网络60、61、长篇民国小说《永泰里》第十二章 引狼入室(3)&(4)GPT-4「荣升」AI顶会同行评审专家?斯坦福最新研究:ICLR/NeurIPS等竟有16.9%评审是ChatGPT生成NeurIPS 2023|北京大学提出类别级6D物体位姿估计新范式,取得新SOTANeurIPS 2023 | FedFed:特征蒸馏应对联邦学习中的数据异构NeurIPS 2023 Spotlight | 通过贝叶斯隐式表征实现数据压缩65、长篇民国小说《永泰里》第十三章 螳螂捕蝉(4)NeurIPS 2023 | 全新机械手算法:辅助花式抓杯子,GTX 1650实现150fps推断NeurIPS 2023 | 单张图片3D数字人重建新SOTA!浙大&悉尼科技大学发布GTA64、65、长篇民国小说《永泰里》第十三章 螳螂捕蝉(3)&(4)【Church Park】【Berklee/NEU/NEC/BU】2024排位进行中最近发生在的Texas的Law and Order的具体案例,你觉得和你想象的一样吗?你会支持这样的Law&order吗老烟记事(388) 余抱一之死性能大涨20%!中科大「状态序列频域预测」方法:表征学习样本效率max|NeurIPS 2023 Spotlight纽约这点雪估计是给芒格老先生下的Nature Neuroscience | 首次发现!西湖大学贾洁敏团队揭示神经元调控大脑血流新路径「有现房9月可排队 |NEU & Berklee & Emerson|接受本科生|城市天际线|无敌健身房|Chinatown」2023 turbo tax, home & business , 17刀一个人NeurIPS 2023 | 从分布鲁棒优化角度理解对比学习的鲁棒性和温度系数的意义NeurIPS 2023 | 清华&ETH提出首个二值化光谱重建算法三篇论文解决「语义分割的优化和评估」难题!鲁汶/清华/牛津等联合提出全新方法Nature Neuroscience | 仇子龙/程田林团队成功利用全脑单碱基编辑技术改善孤独症小鼠核心症状分割一切「3D高斯」版来了:几毫秒完成3D分割、千倍加速CCL2024-Eval | 第二届汉语框架语义解析评测正式开启,诚邀各界专家学者参与分割一切"3D高斯"来了!上交&华为提出SAGA:几毫秒完成3D分割一切!敦煌壁画和波斯细密画计算需求降为1%! 清华大学首次提出「二值化光谱重建算法」,代码全开源|NeurIPS 2023NeurIPS 2023 Spotlight | 基于超图的表格语言模型查理·芒格的讣告NeurIPS上新 | 从扩散模型、脑电表征,到AI for Science,微软亚洲研究院精选论文【最好的朋友在身边,最爱的学校在对面】【限时优惠】【Church Park 秋季排位火热进行】【NEU/NEC/Berklee】NeurIPS 2023 | 模仿人类举一反三,数据集扩增新范式GIF框架来了MIT最新研究:什么样的语言最有可能激活大脑的语言处理中心?NeurIPS 2023 | 基于双重结构知识图的视觉语言模型高效迁移62、63、长篇民国小说《永泰里》第十三章 螳螂捕蝉(1)&(2)Levi's起诉Brunello Cucinelli侵犯“矩形口袋标签”商标权纯加法Transformer!结合脉冲神经网络和Transformer的脉冲Transformer | NeurIPS 20239.1入住|NEU/BU/HMS|室内洗烘|Brookline近绿线到NEU地铁直达全新三室一厅2.5卫6000+NeurIPS 2023 | 清华ETH提出首个二值化光谱重建算法
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。