Redian新闻
>
ICCV 2023 | 对于极暗场景RAW图像去噪,你是否还在被标定折磨?来试试LED!少量数据、快速部署!

ICCV 2023 | 对于极暗场景RAW图像去噪,你是否还在被标定折磨?来试试LED!少量数据、快速部署!

公众号新闻

点击下方卡片,关注“CVer”公众号

AI/CV重磅干货,第一时间送达

点击进入—>【去噪和论文投稿】交流群

作者:Srameo |  已授权转载(源:知乎)编辑:CVer

https://zhuanlan.zhihu.com/p/648242095

本文为 [ICCV 2023] Lighting Every Darkness in Two Pairs: A Calibration-Free Pipeline for RAW Denosing 的简要介绍

Github:https://github.com/Srameo/LED

Homepage:https://srameo.github.io/projects/led-iccv23/

Paper:http://arxiv.org/abs/2308.03448

TL; DR;

基于标定的方法在极低光照环境下的 RAW 图像去噪中占主导地位。然而,这些方法存在几个主要缺陷:

  1. 噪声参数标定过程费力且耗时,

  2. 不同相机的降噪网络难以相互转换,

  3. 合成噪声和真实噪声之间的差异被高倍数字增益放大。

为了克服上述缺点,我们提出了一种无需标定的pipeline来照亮 Lighing Every Darkness(LED),无论数字增益或相机传感器的种类。我们的方法无需标定噪声参数和重复训练,只需少量配对数据和快速微调即可适应目标相机。此外,简单的结构变化可以缩小合成噪声和真实噪声之间的domain gap,而无需任何额外的计算成本。在SID[1]上仅需总共 6 对配对数据、和 0.5% 的迭代次数以及0.2%的训练时间,LED便表现出SOTA的性能!

Introduction

使用真实配对数据进行训练

SID[1] 首先提出一套完整的 benchmark 以及 dataset 进行RAW图像低光增强或去噪。为什么要从RAW图像出发进行去噪和低光增强呢?因为其具有更高的上限,具体可以参考 SID[1] 的文章。

那么它具体的做法是什么呢?很简单,如图1左,使用相机拍摄大量配对的真实数据,之后直接堆到网络里进行训练。

图1: 基于真实配对数据进行训练流程(左)以及基于噪声模型标定进行训练流程(右)

但是有一个很重要的问题,不同的传感器,噪声模型以及参数都是不同的。那么按照这种流程,难道我们对每种相机都需要重新收集大量数据并重新训练?是不是有点太繁琐了?

基于噪声模型标定的算法流程

对于上述提到的问题,近期的paper[2] [3] [4] [5]统一告诉我们:是的。现在,大家主要卷的,包括在各种工业场景(手机、边缘设备上),去噪任务都已经开始采用基于标定的手段。

那么什么是标定呢?具体的标定流程大家可以参考 

@Wang Hawk

 的文章Wang Hawk:60. 数码相机成像时的噪声模型与标定。当然,基于深度学习+噪声模型标定的算法大概就分为如下三步(可以参考图1右):

1. 设计噪声模型,收集标定用数据,

2.使用 1. 中的标定的数据对对噪声模型进行参数估计 (iso)log线

3. 使用 2. 中标定好的噪声模型合成配对数据并训练神经网络。

这样,对于不同的相机,我们只需使用不同的标定数据(收集难度相对于大规模配对数据集来讲少了很多),便可以训练出对应该相机的专用去噪网络。

但是,标定算法真的好吗?

标定缺陷以及 LED

图2: 基于噪声模型标定的算法缺陷

那么我们喜欢什么呢?

  1. 简化标定[6][7],甚至无需标定,

  2. 快速部署到新相机上,

  3. 强大的“泛化”能力:很好的泛化到真实场景,克服合成噪声到真实噪声之间的domain gap。

So here comes LED!

图3: 标定算法与LED的对比
  1. 无需标定:相比于标定算法需要使用真实相机的噪声参数,我们采用虚拟相机噪声参数进行数据合成,

  2. 快速部署:采用 Pretrain-Finetune 的训练策略,对于新相机仅需少量数据对网络部分参数进行微调,

  3. 克服 Domain Gap:通过少量真实数据进行 finetune 以获得去除真实噪声的能力。

LED 能做到什么?

图4: 6对数据 + 1.5K iteration = SOTA Performance!

图5: 更直观的log对比

Method

LED大概分为一下几步:

  1. 预定义噪声模型Φ ,从参数空间中随机采集 N 组 “虚拟相机” 噪声参数,


  2. 使用 1. 中的 N 组 “虚拟相机” 噪声参数合成并 Pretrain 神经网络,


  3. 使用目标相机收集少量配对数据,

  4. 使用 3. 中的少量数据 Finetune 2. 中预训练的神经网络。

当然,一个普通的 UNet 并不能很好的完成我们前文说的3个“需要”。因此结构上也需要做少量更改:

图6: UNet 结构中的 RepNR Block

首先,我们把 UNet 里所有的 Conv3 配上一组CSA (Camera Specific Alignment),CSA 指一个简单的 channel-wise weight 和一组 channel-wise 的 bias,用于 feature space 上的对齐。

Pretrain 时,对于第 个相机合成的数据,我们只训练第 k 个CSA以及 Conv3。

Finetune 时,先将 Pretrain 时的CSA组进行 Average 得到初始化的CSA^T (for target camera),然后先将其训练收敛;之后添加一个额外分枝,继续微调,额外分枝用于学习合成噪声和真实噪声之间的 Domain Gap。

当然,由于CSA以及卷积都是线性操作,所以我们在部署时候可以将他们全部都重参数化到一起,因此最终不会引入任何额外计算量

图7: 重参数化

Visual Result

下图表现出了 LED 对于 Out-of-model 噪声的去除能力(克服合成噪声与真实噪声之间 Domain Gap 的能力)。

Out-Of-Model Noise 指不被预定义在噪声模型中的噪声,如图8中由镜头所引起的噪声或图9中由 Dark Shading 所引起的噪声

图8: Out-Of-Model Pattern 去除能力(镜头引发的 Artifact)

图9: Out-of-model 噪声去除能力(Dark Shading)

Discussion on “为什么需要两对数据?”

图10

不知道大家记不记得之前埋的一个伏笔:增益和噪声方差之间保持对数线性关系。

线性关系意味着什么呢?两点确定一条直线!也就是说两对数据(每对数据都能提供在某增益下噪声方差的值)就可以确定这个线性关系。但是,由于存在误差[2],所以我们需要增益差距尽可能大的两对数据以完成网络对线性关系的学习。

从图10右也能看出,当我们无论使用增益相同的 1、2、4 对数据,性能并不会有太大的差距。而使用增益差距很大的两对数据(差异很大指 ISO<500 与 ISO>5000)时,性能有巨大提升。这也能验证我们的假设,即两对数据便可以学习到线性关系。

后记:关于开源

我们的训练测试包括对ELD的复现代码都已经开源到 Github 上了,如果大家感兴趣的话可以帮我们点个 star。

当然不仅是代码,我们还一口气开源了 配对数据、ELD、PG(泊松-高斯)噪声模型在多款相机上、不同训练策略、不同阶段(指 LED 的 Pre-train 和 Fine-tune 阶段)的一共15个模型,详见 pretrained-model.md。

此外,由于 RepNR block 目前只在 UNet 上进行了测试,不过我们相信其在别的模型上的潜力。于是,我们提供了快速将 RepNR block 用于别的模型上的代码,仅需一行代码,便可在你自己的网络结构上使用 RepNR block,配合我们的 Noisy-Clean 生成器,可以快速验证 RepNR block 在其他结构上的有效性。相关讲解以及代码可以在 develop.md 中找到。

希望我们的工作可以为更多的开发者提供便利!感谢阅读!

  1. ^abcChen, Chen, et al. "Learning to see in the dark." CVPR. 2018.

  2. ^abWei, Kaixuan, et al. "Physics-based noise modeling for extreme low-light photography." IEEE TPAMI. 2021.

  3. ^Zhang, Yi, et al. "Rethinking noise synthesis and modeling in raw denoising." ICCV. 2021.

  4. ^Feng, Hansen, et al. "Learnability enhancement for low-light raw denoising: Where paired real data meets noise modeling." ACMMM. 2022

  5. ^Cao, Yue, et al. "Physics-Guided ISO-Dependent Sensor Noise Modeling for Extreme Low-Light Photography." CVPR. 2023.

  6. ^Zou, Yunhao, and Ying Fu. “Estimating fine-grained noise model via contrastive learning.” CVPR. 2022.

  7. ^Monakhova, Kristina, et al. “Dancing under the stars: video denoising in starlight.” CVPR . 2022.

点击进入—>【去噪和论文投稿】交流群


ICCV / CVPR 2023论文和代码下载


后台回复:CVPR2023,即可下载CVPR 2023论文和代码开源的论文合集

后台回复:ICCV2023,即可下载ICCV 2023论文和代码开源的论文合集

去噪和Transformer交流群成立


扫描下方二维码,或者添加微信:CVer333,即可添加CVer小助手微信,便可申请加入CVer-去噪或者Transformer 微信交流群。另外其他垂直方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch、TensorFlow和Transformer等。


一定要备注:研究方向+地点+学校/公司+昵称(如去噪或者Transformer+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群


▲扫码或加微信号: CVer333,进交流群


CVer计算机视觉(知识星球)来了!想要了解最新最快最好的CV/DL/AI论文速递、优质实战项目、AI行业前沿、从入门到精通学习教程等资料,欢迎扫描下方二维码,加入CVer计算机视觉,已汇集数千人!


扫码进星球


▲点击上方卡片,关注CVer公众号

整理不易,请点赞和在看

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
加拿大团聚移民,你是否还在纠结这些问题?少吃牛蛙!少吃牛蛙!少吃牛蛙!ICCV 2023 | 即插即用!上海交大提出AccFlow:跨帧光流估计框架想不想我ICCV 2023 | 通用数据增强技术!适用于任意数据模态的随机量化「人与场景交互生成」新突破!天大、清华发布Narrator:文本驱动,自然可控|ICCV 2023一周重磅日程:MLF是否降息?关注中国7月经济数据、腾讯京东B站财报ICCV 2023 | HumanSD: 更可控更高效的人体图像生成模型处理了800余万组数据的临床CRO,是怎样生产数据、利用数据的?​媒婆痣女星咖位飞升?男主持搅黄前妻好事?​古装男无事安好?出轨男被小东西折磨?男歌手玩很嗨?狐狸精和伪善女宇宙类似原子,以薛定谔方程运行,上帝就是方程的最大解:最大波函数ICCV 2023 | 金连文团队提出:从数据角度重新审视场景文字识别外行做游戏策划受折磨?小白用Y3编辑器一路“狂飙”比不穿还舒服且超美的无痕内衣,59.9元2套!少量库存清仓,手慢无!和 Midjourney 说再见,试试LensGo,还能训练自己的模型并非所有向量数据库都生来平等 - 找到属于你的向量数据库ICCV 2023 Oral | HumanSD:更可控更高效的人体图像生成模型ICCV 2023 中国遥遥领先!华人拿下最佳论文和最佳学生论文!SAM和ControlNet开启CV新纪元!ICCV 2023 | 通用数据增强技术,随机量化适用于任意数据模态ACL 2023 |信息减加法:基于特征去噪和主题增强的多模态关系抽取【加勒比蓝/热带雨林/古堡/溶洞/荧光海】2023 波多黎各Puerto Rico环岛之旅ICCV 2023 | 图像重缩放新方法:无需对模型重新训练即可提高性能ICCV 2023 | 清华&天津大学提出SurroundOcc:自动驾驶的环视三维占据栅格预测ICCV 2023 | 比分割一切SAM更早实现交互式开集分割!港科大提出OpenSeeD:开放词表图像分割和检测紫花遍地毳球枝人间温暖点滴俄乌战况11大模型商用新解法:CVP架构崛起,向量数据库破圈资源咖男星架子大?打胎男浪子回头?狐狸女星要开演唱会?顶流男星被病痛折磨?​油腻男星破防了?马思唯伦敦演唱会开唱!少量余票赶紧抢ChatGPT 和 OpenAI 都在用的 Redis,是如何从传统数据库升级为向量数据库的?ICCV 2023 | 基于预训练视觉语言模型和大语言模型的零样本图像到文本生成催了吼了训了,孩子还是不听不长记性?来试试我对付毛头的方法俄乌战况14【美国风流才女春天传奇夏至父亲端午节5年现场舞台风格流派三部曲原创演唱会】励志春天跑步歌《阳光下奔跑》&《白色衣裙女孩》ICCV 2023 Oral | CLIP-LIT将CLIP用于无监督背光图像增强不节食!不反弹!快速瘦肚子的方法,快来试试《听海》&《你就不要想起我》ICCV 2023 | 上交提出CCD:基于自监督字符到字符蒸馏的文本识别
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。