Redian新闻
>
ICCV 2023 | TUM&谷歌提出md4all:挑战性条件下的单目深度估计

ICCV 2023 | TUM&谷歌提出md4all:挑战性条件下的单目深度估计

科技

点击下方卡片,关注“CVer”公众号

AI/CV重磅干货,第一时间送达

点击进入—>【深度估计】交流群

Robust Monocular Depth Estimation under Challenging Conditions
作者列表: Stefano Gasperini, Nils Morbitzer, HyunJun Jung, Nassir Navab, Federico Tombari
翻译: 翟光耀
单位: 慕尼黑工业大学, 谷歌

前言

大家好, 我叫Stefano Gasperini, 在此宣传我们的ICCV 2023的工作, 更多详细信息可查看我们的论文: https://arxiv.org/abs/2308.09711, 和我们的项目网站: https://md4all.github.io.

代码:https://github.com/md4all/md4all

在CVer微信公众号后台回复:md4all,可下载本论文pdf和代码

首先请大家观看这样一个例子:

你能在彩色图片中看到树吗? 

我们的单目深度估计网络在所有条件下都能输出可靠的深度估计值,即使在黑暗中也是如此!   

背景

虽然最先进的单目深度估计方法在理想环境下取得了令人印象深刻的结果,但在具有挑战性的光照和天气条件下,如夜间或下雨天,这些方法却非常不可靠。

在这些情况下, 传感器自带的噪声、无纹理的黑暗区域和反光等不利因素都违反了基于监督和自监督学习方法的训练假设。自监督方法无法建立学习深度所需的像素的对应关系,而监督方法则可能从传感器真值中(如上图中的 LiDAR 与 nuScenes 的数据样本)中学习到数据瑕疵。

方法

在本文中,我们提出了 md4all 解决了这些安全关键问题。md4all 是一个简单有效的解决方案,在不利和理想条件下都能可靠运行,而且适用于不同类型的监督学习。

我们利用现有方法在完美设置下的工作能力来实现这一目标。因此,我们提供的有效训练信号与输入信号无关。首先,通过图像转换,我们生成一组与正常训练样本相对应的复杂样本。然后,我们通过输入生成的样本并计算相应原始图像上的标准损失,引导网络模型进行自监督学习或完全监督学习。

如上图所示,我们进一步从预先训练好的基线模型中提炼知识,该模型只在理想环境下进行推理,同时向深度模型提供理想和不利的混合输入。

我们的 GitHub 代码库中包含所提方法的实现代码, 欢迎访问: 

https://github.com/md4all/md4all

结果

通过 md4all,我们大大超越了之前的解决方案,在各种条件下都能提供稳健的估计。值得注意的是,所提出的 md4all 只使用了一个单目模型,没有专门的分支。

上图显示了在 nuScenes 数据集的挑战性环境下的预测结果。由于场景的黑暗程度和噪声带来的影响,自监督方法 Monodepth2 无法提取有价值的特征(第一行)。有监督的 AdaBins 会学习到来自传感器数据的瑕疵,并造成道路上的空洞预测现象(第二行)。在相同的架构上应用,我们的 md4all 提高了在标准和不利条件下的鲁棒性。

在本文中,我们展示了 md4all 在标准和不利条件下两种类型的监督下的有效性。通过在 nuScenes 和 Oxford RobotCar 数据集上的大量实验,md4all 的表现明显优于之前的作品(如上图数据所示)。

图像转换

我们还显示了为训练 md4all 而生成的图像转换示例 (如上图所示)。我们通过向模型提供原始样本和转换样本的混合数据进行数据增强。这样一个模型就能在不同条件下恢复信息,而无需在推理时进行修改。

在此,我们开源共享所有不利条件下生成的图像,这些图像与 nuScenes 和牛津 Robotcar 训练集中的晴天和阴天样本相对应。欢迎访问: 

https://forms.gle/31w2TvtTiVNyPb916

这些图像可用于未来深度估计或其他任务的稳健方法。

在CVer微信公众号后台回复:md4all,可下载本论文pdf和代码

点击进入—>【目标检测和Transformer】交流群


ICCV / CVPR 2023论文和代码下载


后台回复:CVPR2023,即可下载CVPR 2023论文和代码开源的论文合集

后台回复:ICCV2023,即可下载ICCV 2023论文和代码开源的论文合集

目标检测和Transformer交流群成立


扫描下方二维码,或者添加微信:CVer333,即可添加CVer小助手微信,便可申请加入CVer-目标检测或者Transformer 微信交流群。另外其他垂直方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch、TensorFlow和Transformer、NeRF等。


一定要备注:研究方向+地点+学校/公司+昵称(如目标检测或者Transformer+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群


▲扫码或加微信号: CVer333,进交流群


CVer计算机视觉(知识星球)来了!想要了解最新最快最好的CV/DL/AI论文速递、优质实战项目、AI行业前沿、从入门到精通学习教程等资料,欢迎扫描下方二维码,加入CVer计算机视觉,已汇集数千人!


扫码进星球


▲点击上方卡片,关注CVer公众号

整理不易,请点赞和在看

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
ICCV 2023 | 比分割一切SAM更早实现交互式开集分割!港科大提出OpenSeeD:开放词表图像分割和检测Gunn HSSAM拿下ICCV 2023最佳论文荣誉提名奖!这些CV论文仍是顶流!NeurIPS 2023 Spotlight|高质量多视角图像生成,完美复刻场景材质!SFU等提出MVDiffusion参禅ICCV 2023 | 复旦&微软提出ILA:基于可学习隐式对齐的时序建模方法ICCV 2023 中国遥遥领先!华人拿下最佳论文和最佳学生论文!SAM和ControlNet开启CV新纪元!无题“租房和找工作都很难!外国女子移居澳洲,感慨“很美好也很具挑战性”新同事用上了Lumion12永久激活版后,对我们充满了鄙视...(附软件下载)ICCV 2023 | 北大提出MotionBERT:人体运动表征学习的统一视角ICCV 2023 | 更快更强!北理工&旷视提出StreamPETR:纯视觉感知与激光雷达终有一战之力!ICCV 2023 | 即插即用!上海交大提出AccFlow:跨帧光流估计框架ICCV 2023 | 港中文MMLab: 多帧光流估计模型VideoFlow,首次实现亚像素级别误差ICCV 2023 | 中科大&微软提出AFFNet:轻量级视觉新主干【夏日狂欢Fiesta】撬锁 【夜半轻私语】&【悲歌问句天】ICCV 2023最佳论文候选!谷歌提出Zip-NeRF:照片转视频,像航拍一样丝滑!ICCV 2023 | 华为诺亚提出全新目标检测器Focus-DETR新出炉的Indiana Jones and the Dial of Destiny 2023 ‧ Adventure7.7亿参数,超越5400亿PaLM!UW谷歌提出「分步蒸馏」,只需80%训练数据|ACL 2023ICCV 2023 Oral | HumanSD:更可控更高效的人体图像生成模型一拖一拽,玫瑰复活了!谷歌提出生成图像动力学,从此万物皆有灵语言模型战胜扩散模型!谷歌提出MAGVIT-v2:视频和图像生成上实现双SOTA!ICCV 2023 | 清华&天津大学提出SurroundOcc:自动驾驶的环视三维占据栅格预测𝐂𝐚𝐥𝐧𝐢𝐊𝐞𝐚𝐧双皮奶内衣裤,软弹有度,上身0束缚~ICCV 2023 | 南开大学提出LSKNet:遥感旋转目标检测新SOTAICCV 2023 | 刷新多项记录!武大&快手提出DVIS:解耦视频实例分割框架ICCV 2023 | 只需过一次CLIP!美团&港大提出高效的开放字典语义分割框架DeOP​ICCV 2023 | 华科大提出NVDS:即插即用的视频深度预测框架ICCV 2023 | 发挥offline方法的潜力,武大&快手提出解耦合的视频实例分割框架DVIS俄乌战况6ICCV 2023 | 浙大&阿里提出:基于Transformer的可泛化人体表征来了!冰岛阿库雷里(Akureyri),海景云彩2023 查尔斯河国庆夜的烟火NeurIPS 2023 | 王利民团队提出MixFormerV2:首个基于ViT并在CPU设备实时运行的目标跟踪器!ICCV 2023 | 清华&西电提出HumanMAC:人体动作预测新范式刑期最长的泄密者 – 电影“REALITY” 观感ICCV 2023 | HumanSD: 更可控更高效的人体图像生成模型ICCV 2023 | 上交提出CCD:基于自监督字符到字符蒸馏的文本识别国庆扫街
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。