Redian新闻
>
CVPR 2023 Workshop | 视频增强质量评价挑战赛启动!

CVPR 2023 Workshop | 视频增强质量评价挑战赛启动!

公众号新闻

点击下方卡片,关注“CVer”公众号

AI/CV重磅干货,第一时间送达

点击进入—>CV微信技术交流群



NTIRE (New Trends in Image Restoration and Enhancement) 是近年来计算机视觉领域中具有广泛影响力的全球性研讨会之一,其涵盖了绝大部分底层视觉任务并提供了相应挑战赛。其中,NTIRE 2023 视频增强质量评价挑战赛由鹏城实验室、上海交通大学刘笑宏、闵雄阔、翟广涛教授团队,苏黎世联邦理工学院张宇伦、张凯博士共同主办。第八届NTIRE研讨会将于2023年6月18日与 CVPR 2023 一起举行。


大赛背景:


由于摄像机/智能手机拍摄的视频总是需要后处理以获得更好的可视化和更高的实用性,近年来提出了许多视频增强算法。这种视频增强算法的主要目标是提高视频质量,例如清晰度、对比度、色彩和稳定性。因此,如何比较不同视频增强算法的性能成为一项新的任务。而且提出新的视频质量评价(VQA)方法来预测增强后视频的质量,也可以促进视频增强领域的发展。


与NTIRE研讨会一起,我们组织了一场关于感知增强视频质量评价的挑战赛。其目的是获得一种网络设计/解决方案,能够产生与真实视频质量分数(即平均意见得分,MOS)具有最佳相关性的高质量结果。


大赛介绍:


该挑战使用了一个名为 VDPVE 的新数据集。训练集包含839段增强视频。具体来说,有414个色彩增强、亮度增强和对比度增强后的视频,210个去模糊后的视频,215个去除抖动后的视频。在模型开发阶段,将发布训练集和验证集。参赛者可利用训练集进行模型训练,并将验证集上的结果提交至 CodaLab 服务器进行评估。在测试阶段,竞赛组织者将发布测试集。参赛者可利用训练好的模型对测试图像质量进行预测,并提交预测结果,由组织者统一进行定量评估与排名。


大赛官网与挑战赛网址:


NTIRE官网:

https://cvlai.net/ntire/2023/


视频增强质量评价挑战赛网址:

https://codalab.lisn.upsaclay.fr/competitions/10252


赛程安排:


2023.01.30 发布训练集和验证集

2023.01.30 发布在线验证平台

2023.03.7 发布测试集,关闭验证平台

2023.03.14 测试结果提交截止日期

2023.03.15 概况介绍和代码/可执行文件提交截止日期

2023.03.17 向参与者发布初步测试结果

2023.03.28 挑战参赛作品的论文提交截止日期

2023.06.18 NTIRE 研讨会和挑战、成果和颁奖典礼


大赛要求:


本次挑战赛面向全社会开放,个人、高等院校、科研单位、企业等人员均可报名参赛。每位参赛者只能加入1支队伍,每支队伍只能提交一种算法进行最终排名。


大赛奖励:


发表论文是可选择的,不会成为参加挑战赛或获奖的条件。本次挑战赛将邀请排名靠前的参赛者向NTIRE研讨会提交论文,以供同行评审。论文录用后将发表2023年CVPR研讨会论文集中。


排名最高的参赛者和为比赛贡献新颖方法的参赛者将被邀请成为挑战赛报告论文的共同作者,该报告将在2023年CVPR研讨会上发表。


本次比赛的奖金(暂定)如下:

第一名:1200 美元或同等价值的礼物+证书

第二名:1000 美元或等值礼品+证书

第三名:800 美元或同等价值的礼物+证书


主办团队:


NTIRE 2023 视频增强质量评价挑战赛由鹏程实验室、上海交通大学、苏黎世联邦理工学院共同举办。其中交大团队成员由刘笑宏、闵雄阔和翟广涛教授及其带领的博士研究生孙伟、高艺璇、曹于勤,硕士研究生寇腾川、董云龙和贾子恒组成。


竞赛组织者的联系方式:


Xiaohong Liu <[email protected]>,

Xiongkuo Min <[email protected]>,

Wei Sun <[email protected]>,

Yulun Zhang <[email protected]>,

Kai Zhang <[email protected]>,

Guangtao Zhai <[email protected]>.

大赛交流群:


欢迎大家积极参赛,如群满或二维码到期请通过邮箱联系加群!


点击进入—>CV微信技术交流群


CVPR/ECCV 2022论文和代码下载


后台回复:CVPR2022,即可下载CVPR 2022论文和代码开源的论文合集

后台回复:ECCV2022,即可下载ECCV 2022论文和代码开源的论文合集

后台回复:Transformer综述,即可下载最新的3篇Transformer综述PDF


目标检测和Transformer交流群成立


扫描下方二维码,或者添加微信:CVer222,即可添加CVer小助手微信,便可申请加入CVer-目标检测或者Transformer 微信交流群。另外其他垂直方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch、TensorFlow和Transformer等。


一定要备注:研究方向+地点+学校/公司+昵称(如目标检测或者Transformer+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群


▲扫码或加微信号: CVer222,进交流群


CVer学术交流群(知识星球)来了!想要了解最新最快最好的CV/DL/ML论文速递、优质开源项目、学习教程和实战训练等资料,欢迎扫描下方二维码,加入CVer学术交流群,已汇集数千人!


扫码进群

▲点击上方卡片,关注CVer公众号

整理不易,请点赞和在看

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
《更多的诗歌》:6: 对于我来说国际要闻简报,轻松了解天下事(03谷歌推出多模态Vid2Seq,理解视频IQ在线,字幕君不会下线了|CVPR 2023CVPR 2023 | YOLOv7强势收录!时隔6年,YOLOv系列再登CVPR!首次!证券公司投行业务质量评价结果出炉,数家头部券商“屈居”B类CVPR 2023 | 一键去除视频闪烁,该研究提出了一个通用框架全职速递|JP Morgan 2023女性项目开放!另有系列Workshop带你深入了解岗位&公司概况!Workshop!如何运用身边的材料,让作品焕然一新?【公开课预告】:视频质量评估体系征稿 | ACM MM 23 Workshop - 基于大语言模型的多模态研究和应用投稿招募 | 首届多模态可穿戴信号理解AmbientAI Workshop @ ICASSP 2023【ICDAR 2023 X 阿里安全】挑战赛正式启动!篡改文本分类和检测两大赛题!八校联动|“约法三章 情诉三行”三行情诗大赛启动!CVPR 2023 Workshop | 动态点云感知任务挑战赛启动!CVPR 2023 Workshop | 第三届"反无人机"研讨会&挑战赛启动,等你来战!对乌军冬季反攻战的展望转:2023 回国探亲(5)跑步看世界-圣地亚哥老城报名最后一天!Ada Workshop 2023 邀妳一起聆听她们的技术远见2023 春 祝姐妹们周末快乐!建筑优秀作品展&workshop | 如何用废弃材料让作品焕然一新?伦艺导师带你点石成金!CVPR 2023 Workshop | 首个大规模视频全景分割比赛Call for paper | IEEE ICC 2023 Workshop12家公司被评为A类!证券投行业务质量评价结果出炉CVPR 2023 Workshop | 马普所、麻省理工等举办生成模型研讨会精选SDE岗位 | MathWorks、Adobe 、Vectorworks发布新岗位!上海M50创意园workshop:让创意在“水上生花”!明天直播|Ada Workshop 2023邀妳云端相聚!Movie 'The Piano” Soundtrack4月活动 | 留学生艺术作品联展、大厂设计师讲座、专题workshop…超多活动,只等你来!看展+Workshop!文蓝艺术中心完全开放月,12场活动只等你来!精选Data岗位 | CGI、Juniper Networks、Lacework发布最新岗位!今日全职|JP Morgan 2023女性项目开放!另有系列Workshop带你深入了解岗位&公司概况!国际要闻简报,轻松了解天下事(03CVPR 2023 | 开源了!一种通用的视频闪烁去除方法Eruope 2023【今晚7点】:视频质量评估体系大海啊故乡证件照转数字人只需几秒钟,微软实现首个3D扩散模型高质量生成效果,换装改形象一句话搞定 | CVPR 2023CVPR 2023 | EMA-VFI: 基于帧间注意力提取运动和外观信息的高效视频插帧
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。