Redian新闻
>
ICCV 2023丨迈向真实世界的多帧超分

ICCV 2023丨迈向真实世界的多帧超分

公众号新闻
本文介绍的是我们在ICCV2023的工作<Towards Real-world Burst Image Super-Resolution: Benchmark and Method>。
arxiv链接:https://arxiv.org/abs/2309.04803
github链接:https://github.com/yjsunnn/FBANet

太长不看版:我们经过练习时长3年终于做出一个超好玩的真实世界Burst Super-Resolution数据集,欢迎大家多多使用并提出意见~数据集仍在持续采集,后续会坚持更新迭代 :)

以下是详细介绍版:

首先介绍一下我们的task——Real-world Burst Super-Resolution。尽管这几年底层视觉的超分辨率任务搞得如火如荼,但是大部分工作仍然是基于合成数据来做的(也就是给定高分辨率图像之后,经过bicubic/bilinear/...函数下采样获得对应的低分辨率图像)。

这样做的好处是,可以很容易get到训练数据;但是坏处也很明显,就是合成数据将超分中的退化函数 (degradation model) 建模得过于理想化了,因此用合成数据训练出来的模型往往在面对真实世界场景的退化时会发生性能剧变,比如下图中的合成结果。(更详细的对比可以参考:https://zhuanlan.zhihu.com/p/658065262)

在合成数据上训练出的sota模型,泛化到真实场景时出现了一些崩坏

在很多其他工作中,也讨论了这种合成数据的泛化问题(比如做单帧real-world sr的LP-KPN[1]和CDC[2])。但是,即使在这种情况下,基于完全真实的数据进行超分的工作也非常少(这里暂时先不谈用随机noise/blur kernel建模degradation的工作),一个很大的原因就是真实数据太难获取和处理了。无论是配对场景的拍摄,再到图像后期的处理、矫正、对齐,再到最后的成像,每一步都是深渊巨坑(而且超分数据面临着比常规同分辨率配对数据更加难解决的问题,比如畸变等,可以参考zoom to learn[3]等文章)。

与此同时,另一个值得关注的问题是,单帧图像提供的信息总归是有限的,尤其是对超分这种要面临“无中生pixel”的任务。如果能在输入时提供更多的采样信息,让模型能够“见到”更多信息,那么预测pixel的过程将变得更加可靠合理。举一个简单的例子,如果我们将拍摄一个场景的过程简单地理解为一次离散化采样的过程,那么利用单帧离散信息进行原始连续图像重建和利用多帧信息重建的对比大概可以用下图来表示:

多帧信息的输入,意味着对同一个场景进行了多次采样。在重建原场景的时候,采样点越多,采样率越高,意味着对原始信息的恢复更准确

这种设想在很多年前就已经提出了,但当时囿于技术的桎梏,很难做到同一个场景的连续多次采样。但随着硬件设备的提升,目前,几乎所有的成像设备厂商都可以做到在按下快门的一瞬间,让设备在底层捕捉到多张相隔不过毫秒级别的照片。这也意味着我们不再局限于单帧图像,而是拥有了一系列同一场景的数据可以使用(也就是burst data,即连拍数据),Burst photography也慢慢进入了大众视野[4][5]。

尽管Burst super-resolution工作有很大的发展前景,但是依然被前文所提到的真实数据问题所困扰。其实在2021年,就已经有工作提出了一版真实的burst数据集[6],但是在使用过程中,却发现有很多难以弥补的问题:

1)严重的不对齐问题:如下图(a)所示,这种低分辨率input和高分辨率ground-truth之间的不对齐,会直接误导模型的学习,更不要提在对应位置生成准确的pixel了。

2)跨设备的domain gap:如下图(b)所示,由于低分辨率input和高分辨率ground-truth是采用不同设备拍摄(手机+相机),因此在成像上出现了跨设备分布的问题,也就是手机和相机之间不同的成像方式导致了最终的LR和HR出现了很大的颜色差异。对于pixel级别的任务来说,也同样是一个容易误导模型的问题。

此前的burst数据集存在的问题

3)评测的不规范:由于上述的两个问题,导致了模型根据低分辨率input直接生成的SR结果会和真正的ground-truth之间出现空间不对齐、颜色不匹配等问题,所以此数据集对应的评测方法不得不先将SR结果和ground-truth之间做一个空间和颜色矫正,才能计算PSNR,如下图所示。这显然和我们常规能接受的评测方式不太在一个次元里。

左边是常规的测试流程;右边是此前burst数据集对应的测评流程

考虑到以上种种问题,尽管这个数据集为领域做出了很大的贡献,我们却更加深了做一个Real-world Burst Super-Resolution数据集的想法。目前,我们所提出的RealBSR数据集包含RAW和RGB两个版本,总体情况可以参考下图:

RealBSR数据集的采集方式和规模

RealBSR数据集包含室内、室外场景,囊括植物、建筑等不同纹理

RealBSR数据集基本的statistics分析

除了提出RealBSR数据集之外,我们同时思考了现有burst sr方法中存在的问题。

目前burst sr的整体范式可以概括为:输入-->对齐-->融合-->重建-->输出。其中,在融合模块中,通常的做法是在输入的多帧图像中选定一帧(通常为第一帧)作为参考帧,然后计算输入序列中的其他帧和参考帧之间的相似度。

如果相似度高,则对应的该帧将被赋予更高的权重;否则则被赋予较低的权重。这样的做法可以有效避免由于运动、噪声等带来的伪影和模糊,但是也会让多帧中的很多信息被抹掉。

以下图为例,假设第一帧(1-Frame)为参考帧,对于Pixel-A,如果按照传统的融合方式(Vanilla Affinity Fusion),最终的重建结果中将包含3帧中的信息;但是对于Pixel-B,如果仍然按照传统的融合方式,将会发现来自其他帧的重要信息将被忽略(原因就是这些细节在参考帧中没有出现。但参考帧也不过是一次离散采样,很难包括一个场景中所有的重要信息)。而我们希望的有效融合方式是右侧的Federated Affinity Fusion,能够将参考帧忽略的重要信息同样融合到最终的结果中。

Vanilla Affinity Fusion即传统融合方式;Federated Affinity Fusion为本文提出的融合方式

另一种从信号的角度理解我们的融合方式(Federated Affinity Fusion,FAF)和传统融合方式(Vanilla Affinity Fusion, VAF)的示意图如下所示:

从信号的角度对比传统融合和我们的融合方式

想要实现这样的效果的处理方式也非常简单。就是在传统融合过程中计算每一帧和参考帧之间的similarity之后,再在similarity/affinity之间计算它们的difference,以此表征帧间的差异信息。如下图中的Federated Affinity Fusion部分所示(具体公式可以参考论文Section4.3):

我们所提出的FBANet架构。其中Federated Affinity Fusion是主要创新点

最终,我们对比了提出的FBANet模型和其他SOTA模型(包括单帧/多帧/video)的定量和定性效果,具体结果如下。可以发现,无论是在PSNR还是可视化效果上,FBANet都能够显著超越SOTA模型~

RealBSR数据集上的性能对比。所有模型都为RealBSR数据集from scratch训练

FBANet vs. SOTA models

最后,如果大家在使用数据集的过程有什么问题,都欢迎zhihu/github issue/email随时提出,只要看到都会及时处理~希望大家能够多多star!撒花!

参考

  1. ^Cai, Jianrui, Hui Zeng, Hongwei Yong, Zisheng Cao, and Lei Zhang. "Toward real-world single image super-resolution: A new benchmark and a new model." In Proceedings of the IEEE/CVF International Conference on Computer Vision, pp. 3086-3095. 2019.

  2. ^Wei, Pengxu, Ziwei Xie, Hannan Lu, Zongyuan Zhan, Qixiang Ye, Wangmeng Zuo, and Liang Lin. "Component divide-and-conquer for real-world image super-resolution." In Computer Vision–ECCV 2020: 16th European Conference, Glasgow, UK, August 23–28, 2020, Proceedings, Part VIII 16, pp. 101-117. Springer International Publishing, 2020.

  3. ^Zhang, Xuaner, Qifeng Chen, Ren Ng, and Vladlen Koltun. "Zoom to learn, learn to zoom." In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pp. 3762-3770. 2019.

  4. ^Wronski, Bartlomiej, Ignacio Garcia-Dorado, Manfred Ernst, Damien Kelly, Michael Krainin, Chia-Kai Liang, Marc Levoy, and Peyman Milanfar. "Handheld multi-frame super-resolution." ACM Transactions on Graphics (ToG) 38, no. 4 (2019): 1-18.

  5. ^Hasinoff, Samuel W., Dillon Sharlet, Ryan Geiss, Andrew Adams, Jonathan T. Barron, Florian Kainz, Jiawen Chen, and Marc Levoy. "Burst photography for high dynamic range and low-light imaging on mobile cameras." ACM Transactions on Graphics (ToG) 35, no. 6 (2016): 1-12.

  6. ^Bhat, Goutam, Martin Danelljan, Luc Van Gool, and Radu Timofte. "Deep burst super-resolution." In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pp. 9209-9218. 2021.

更多内容,点击下方关注:

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
积累数万例真实世界研究数据,易心安要用非药物疗法撬动儿童心理健康基层市场前沿速递 | 雷替曲塞联合S-1和贝伐珠单抗治疗经过大量预处理的转移性结直肠癌的真实世界结果那些取材自现实世界的动漫场景,粉丝们找到证据了!语言、机器人破壁,MIT等用GPT-4自动生成模拟任务,并迁移到真实世界深入探索中医药智慧,参松养心胶囊降低心脏性猝死复合事件真实世界研究(ACCEPT)正式启动人工智能的未来,与真实世界对齐IJCAI 2023 | 清华提出:具有显式位置增强的鲁棒场景文本图像超分辨率网络ICCV 2023 | 即插即用!上海交大提出AccFlow:跨帧光流估计框架车联网联盟CCC:CCC数字钥匙进入汽车的未来白皮书如何在婚姻中,走向真正的亲密?ICCV 2023 | 港中文MMLab: 多帧光流估计模型VideoFlow,首次实现亚像素级别误差名师观点丨迈克尔·斯宾塞谈下一代全球经济CVPR、ICCV 2023等顶会论文都在这里了!JAMA子刊 :真实世界研究与患者注册登记ICCV 2023 | 清华&天津大学提出SurroundOcc:自动驾驶的环视三维占据栅格预测WACV 2024 | SAFA:高效时空视频超分辨率的尺度自适应特征聚合独家新课!北大杨立华讲《论语》:彼此点亮,还原一个“向真而活”的孔子大康,你和川普都不是保守派GPT-4V在自动驾驶上应用前景如何?面向真实场景的全面测评来了SAM拿下ICCV 2023最佳论文荣誉提名奖!这些CV论文仍是顶流!关于马桶与擦屁股13款进口药械探路真实世界研究,还可用于哪些药物研发戲說芭比长城会研究摘要速递 | 回顾性真实世界研究发布,维立西呱在射血分数降低型心衰患者中安全有效去儿子家养老大衰退:真实世界的经济学重新审视Transformer:倒置更有效,真实世界预测的新SOTA出现了廉价的“集采”仿制药到底好使不好使?面对传言和质疑,医保局公布14万例患者真实世界研究数据!ICCV 2023 中国遥遥领先!华人拿下最佳论文和最佳学生论文!SAM和ControlNet开启CV新纪元!最接近狼人的真实世界动物|科学60秒开源版「ChatGPT Plus」来了,能做数据分析、插件调用、自动上网,落地真实世界的智能体《编织梦幻的人·马格里特篇之一》陈十一院士:软件把离散世界和真实世界连在一起ICCV 2023 | 上交提出CCD:基于自监督字符到字符蒸馏的文本识别徐景和在海南调研医疗器械产业创新发展和真实世界数据应用试点工作
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。