Redian新闻
>
ACM MM 2023 | CLE Diffusion:可控光照增强扩散模型

ACM MM 2023 | CLE Diffusion:可控光照增强扩散模型

公众号新闻

点击下方卡片,关注“CVer”公众号

AI/CV重磅干货,第一时间送达

点击进入—>【扩散模型和Transformer】群

作者:非虚构视觉(源:知乎,已授权)| 编辑:CVer公众号

https://zhuanlan.zhihu.com/p/654816395

在CVer微信公众号后台回复:CLE,可以下载本论文pdf

本文介绍了由北交大、UT Austin、A*Star团队提出的基于扩散模型的可控低光增强方法,论文被ACM MM 2023收录。


CLE Diffusion: Controllable Light Enhancement Diffusion Model
论文:arxiv.org/abs/2308.06725
代码:github.com/YuyangYin/CLEDiffusion
主页:yuyangyin.github.io/CLEDiffusion/
在CVer微信公众号后台回复:CLE,可以下载本论文pdf
Introduction

低光图像增强技术近年来受到了广泛的关注,目前的方法通常假设一个理想的增亮程度,对图像整体进行均匀的增强,同时也限制了用户的可控性。为了解决这个问题,本文提出了可控光照增强扩散模型(Controllable Light Enhancement Diffusion Model),可以让用户输入所需的增亮级别,并利用SAM模型,来实现交互友好的区域可控增亮。如图演示效果,用户可以通过简单的点击来指定增亮的区域。

Method

本文提出了新型的可控光照增强框架,主要采用了条件扩散模型来控制任意区域的任意亮度增强。通过亮度控制模块(Brightness Control Module)将亮度信息信息融入Diffusion网络中,并且设计了和任务适配的条件控制信息和损失函数来增强模型的能力。同时本文使用了Mask输入和SAM模型(Segment-Anything Model)来进一步增强可控性,使得用户可以通过简单的点击形式实现任意区域的增亮。整体的框架如下图所示:

条件控制扩散模型

亮度控制板块

为了高效的控制亮度信息,本文采用了classifier-free guidance(CFG)方法。CFG采用同时训练条件扩散模型(conditional diffusion model)和无条件扩散模型(unconditional diffusion model)的方式来实现。在本任务中,将亮度值(brightness level)视作class label,由于亮度具有连续性,我们的class label也是连续的,可以实现更精细的亮度调节。对于条件扩散模型,本文通过计算normal-light image的平均亮度 λ ,然后通过orthogonal matrix将其在编码成illumintion embedding。然后通过FiLM layer将其注入到UNet的feature map中。对于无条件扩散模型,本文将illumintion embedding的值设置为0。实验中为了提升采样速度,采用DDIM采样的办法,因此总体的算法流程可以总结为:

区域控制增亮

在实际增亮过程中,用户相比于全局增亮图片其实更加关注区域的亮度控制,本文采用了Mask-CLE Diffusion来解决这个问题。首先采样了一批羽化边缘的随机mask,通过将normal-light image和mask混合得到了一个新的合成数据集。然后将mask信息拼接到扩散模型的输入中,训练得到新的增亮模型。SAM(Segment-Anything Model)可以实现任意图片的分割。在SAM的帮助下,Mask-CLE Diffusion提供了更好的用户交互体验,可以让用户通过点击的形式获得指定区域的mask并进行增亮。

辅助损失函数

Expriment

New Metric

目前的大部分指标通常假设理想的亮度值,但对于不同亮度的图片质量比较困难。如下图所示,PSNR和SSIM通常随着亮度变化呈现V字形的变换,而LPIPS会呈现倒V型。因此本文希望提出一个新的指标,可以衡量不同亮度下的图片质量。

本文发现可以用color map来对亮度进行归一化,之后通过Canny边缘提取算子来衡量细节信息,最后采用LPIPS函数来衡量高频质量。新的指标可以命名为Light-IndependentLPIPS,表示为: 

LOL和Mit-Adobe FiveK数据集上的表现

评测指标的比较:

LOL数据集上的可视化比较:

Mit-Adobe FiveK数据集上的可视化比较:

区域亮度增强

给定用户感兴趣的区域,可以实现任意亮度的增强。对比于过往低光增强方法MAXIM(CVPR 2022 Oral),具有更强的可控性和增亮效果。

全局亮度增强

和其他亮度可控方法的比较

ReCoRo只能实现在low-light到well-light之间的亮度增强,而CLE Diffusion有更广的编辑空间。

在VE-LOL数据集上的比较

在正常光照数据集上的比较

在分割模型上的表现

总结

CLE Diffusion提出了一种新型的扩散模型框架来实现可控的光照增强。方法主要将亮度信息编码,利用条件扩散模型来实现可控的亮度增强。并且借助SAM模型,让用户可以选择感兴趣的区域进行增亮。大量的实验表明,方法在定量和定性上都有优异的表现。

在CVer微信公众号后台回复:CLE,可以下载本论文pdf

点击进入—>【扩散模型和目标检测】交流群


ICCV / CVPR 2023论文和代码下载


后台回复:CVPR2023,即可下载CVPR 2023论文和代码开源的论文合集

后台回复:ICCV2023,即可下载ICCV 2023论文和代码开源的论文合集

扩散模型和Transformer交流群成立


扫描下方二维码,或者添加微信:CVer333,即可添加CVer小助手微信,便可申请加入CVer-扩散模型或者Transformer 微信交流群。另外其他垂直方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch、TensorFlow和Transformer、NeRF等。


一定要备注:研究方向+地点+学校/公司+昵称(如扩散模型或者Transformer+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群


▲扫码或加微信号: CVer333,进交流群


CVer计算机视觉(知识星球)来了!想要了解最新最快最好的CV/DL/AI论文速递、优质实战项目、AI行业前沿、从入门到精通学习教程等资料,欢迎扫描下方二维码,加入CVer计算机视觉,已汇集数千人!


扫码进星球


▲点击上方卡片,关注CVer公众号

整理不易,请点赞和在看

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
蛋白质侧链预测新方法DiffPack:扩散模型也能精准预测侧链构象!Stable Diffusion一周年:这份扩散模型编年简史值得拥有生成的分子几乎 100% 有效,用于逆向分子设计的引导扩散模型超大杯Stable Diffusion免费来袭!「最强文生图开放模型」,提示词也更简单海外画界奇才李以染NeurIPS 2023 Spotlight | 半监督与扩散模型结合,实现少标签下可控生成UC伯克利团队开源MemGPT大模型上下文内存管理方案;AgentLM、多模态Fuyu-8B、数学LLEMMA等专用大模型开源大隐隐于市!越南一家人在San Jose开的小店全是越南客人——Phở Cường 2上下文1.6万token的编程大模型来了!与Stable Diffusion出自同门,一次吃5个Python文件不费劲树莓派上运行 Stable Diffusion,260MB 的 RAM「hold」住 10 亿参数大模型大语言模型击败扩散模型!视频图像生成双SOTA,谷歌CMU最新研究,一作北大校友文生图prompt不再又臭又长!LLM增强扩散模型,简单句就能生成高质量图像|ACM MM'23Texas Sunshine 2023第3年那1年内每100辆车有多少毛病NeurIPS 2023 | MSRA、清华、复旦等联合提出AR-Diffusion:基于自回归扩散的文本生成最佳退休年龄苹果“套娃”式扩散模型,训练步数减少七成!ICCV 2023 Oral | CLIP-LIT将CLIP用于无监督背光图像增强NeurIPS 2023 Spotlight|高质量多视角图像生成,完美复刻场景材质!SFU等提出MVDiffusion历史小说《黄裳元吉》第一百一十四章 冬祥很“low”很“low”订回国机票画你所想!北航港大提出DiffSketcher:基于扩散模型的文本驱动矢量化手绘草图合成既是自编码器,也是RNN,DeepMind科学家八个视角剖析扩散模型扩散模型「读脑术」,自动化所MindDiffuser清晰重建人脑视觉画面号称业界最强!Meta发布全新文生图模型,实力碾压Stable Diffusion、MidjourneyNeurIPS 2023 | 扩散模型解决多任务强化学习问题文生图模型又“卷”起来了!比 Stable Diffusion 中文理解能力更强、更懂国人的文生图模型是如何构建的?NeurIPS 2023 | SlotDiffusion: 基于Slot-Attention和扩散模型的全新生成模型杨国强扩债三十年NeurIPS 2023 | 扩散模型再发力!微软提出TextDiffuser:图像生成的文字部分也能搞定!AIGC时代的视频扩散模型,复旦等团队发布领域首篇综述在图像、视频生成上,语言模型首次击败扩散模型,tokenizer是关键击败Stable Diffusion XL,商汤绘画大模型出手即大作,论文公开、免费试玩Cle De Peau 的亲友会满减活动开始了,他家好用的东西很多开源文生图模型再进化,Stable Diffusion XL 1.0登场,出图效果不输Midjourney三登雪山 Mt. Shasta 2023.07.08nǚ hóng?nǚ gōng新泽西州雕塑公园(Grounds for scuplture),真假难辨语言模型战胜扩散模型!谷歌提出MAGVIT-v2:视频和图像生成上实现双SOTA!UTMB 越野
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。