Redian新闻
>
录用2360篇、接收率25.78%,CVPR 2023接收结果公布

录用2360篇、接收率25.78%,CVPR 2023接收结果公布

公众号新闻

机器之心报道

编辑:陈萍

你中了吗?


接收率出来了!在短短几个小时内,各大媒体网络已经被 CVPR 2023 论文接收结果公布的消息刷屏。


根据官方信息统计,今年共收到 9155 份提交,比去年增加了 12%,创下新纪录,今年接收了 2360 篇论文,接收率为 25.78%。作为对比,去年有 8100 多篇有效投稿,大会接收了 2067 篇,接收率为 25%。


作为人工智能领域的顶级会议,CVPR 每年都会吸引大量研究机构和高校参会,近年来,CVPR 的投稿数量也在持续增加,从 2019 年的 5000 多篇有效投稿增长到 2021 年 7500 篇,去年达到 8100 多篇有效投稿。今年更是数量稳增,达到 9155 篇。还有一点值得一提的是今年大会将于 6 月 18 日至 22 日在温哥华会议中心举行。


虽然论文接收列表还没有公布,但已经有机构、学者等开始分享论文被接收的喜悦。


YOLO 项目维护大神 Alexey Bochkovskiy 表示,自己参与的论文《YOLOv7: Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors》已被接收,该研究的三位作者 Chien-Yao Wang、Alexey Bochkovskiy 和 Hong-Yuan Mark Liao 还是 YOLOv4 的原班人马。


据了解,YOLOv7 在 5 FPS 到 160 FPS 范围内,速度和精度都超过了所有已知的目标检测器,并在 GPU V100 上,30 FPS 的情况下达到实时目标检测器的最高精度 56.8% AP。YOLOv7 是在 MS COCO 数据集上从头开始训练的,不使用任何其他数据集或预训练权重。由此看来,这篇入选也是意料之中的事。


推特用户 PyPose 更是直言不讳的表示:「经过长达 3 个月的媒体静默期,我们终于可以在社交媒体上进行宣传了。自己所投论文已经被 CVPR 2023 接收。」之所以会这么说,是因为 CVPR 此前有规定提出社交媒体静默期,根据定义,社交媒体的静默期从论文提交截止日期前四周开始,直到论文最终结果通知发送给作者的时间。在此期间,任何由作者主动发起的对论文的社交媒体宣传都被视为违反政策。


此外,来自谷歌的一篇论文关于 MetaCLUE 的研究也被接收,作者表示这是首个向开发具有类人创造力的 AI 系统迈出的重要一步。


在 CVPR 中稿的论文中,自然也少不了扩散模型的身影,这不就有人宣传自己的论文也被接收了。这篇论文主要介绍了基于扩散模型的图像编辑。


除此以外,还有更多人加入到论文分享队列,纽约大学助理教授 Chen Feng 领导的团队有 2 篇论文被接收。


机器之心的各位读者,你们提交的论文中了吗?

欢迎中了的小伙伴向机器之心投稿。投稿邮箱:[email protected]


参考链接:https://twitter.com/hashtag/CVPR2023?src=hashtag_click


ChatGPT及大模型技术大会


机器之心将于3月21日在北京举办「ChatGPT 及大模型技术大会」,为圈内人士提供一个专业、严肃的交流平台,围绕研究、开发、落地应用三个角度,探讨大模型技术以及中国版 ChatGPT 的未来。

届时,机器之心将邀请大模型领域的知名学者、业界顶级专家担任嘉宾,通过主题演讲、圆桌讨论、QA、现场产品体验等多种形式,与现场观众讨论大模型及中国版 ChatGPT 等相关话题。

点击阅读原文,立即报名。

© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
CVPR 2023 | 统一框架MAGE:表征学习超MAE,无监督图像生成超越Latent DiffusionCVPR2023 | 微软提出高效率大规模图文检索模型Stable Diffusion读你大脑信号就能重现图像,研究还被CVPR接收了清酒不用烫,浊酒不用筛(2)日本清酒细品小酌IJCAI 2023放榜!接收率15%:中稿全凭运气?rebuttal没用?审稿人只盯负面评价?杭电小哥抢先搞定GPT读图功能,单卡就能实现新SOTA,代码已开源|CVPR2023CVPR 2023 Workshop | 视频增强质量评价挑战赛启动!CVPR 2023 | 即插即用!SQR:对于训练DETR-family目标检测的探索和思考CVPR 2023 | YOLOv7强势收录!时隔6年,YOLOv系列再登CVPR!大脑视觉信号被Stable Diffusion复现图像!“人类的谋略和谎言不存在了” | CVPR2023CVPR 2023 Workshop | 动态点云感知任务挑战赛启动!闲话人生(223)深切怀念我亲爱的二姐CVPR 2023 | 中山大学HCP实验室新突破:用因果范式再升级多模态大模型CVPR 2023 Workshop | 首个大规模视频全景分割比赛CVPR 2023 | GAN的反击!朱俊彦新作GigaGAN,出图速度秒杀Stable Diffusion!CVPR 2023 Workshop | 马普所、麻省理工等举办生成模型研讨会2022年去世的15位老海归ICLR2023 | 论文列表公布,5000 篇投稿,整体接收率为 31.8%证件照转数字人只需几秒钟,微软实现首个3D扩散模型高质量生成效果,换装改形象一句话搞定 | CVPR 2023CVPR 2023 | 基于CLIP的微调新范式!训练速度和性能均创新高!CVPR 2023 接收结果出炉!再创历史新高!录用2360篇!(附10篇最新论文)CVPR 2023 | 浙大提出全归一化流模型PyramidFlow:高分辨率缺陷异常定位新范式今年 CV 热点这么多,不可错过 CVPR 2023 线下论文分享会邓小平三起三落如何玩弄华国锋CVPR 2023 Workshop | 第三届"反无人机"研讨会&挑战赛启动,等你来战!ICML 2023放榜!接收率高达27.9%!论文中稿量创历史新高清华13篇、北大6篇!ISSCC 2023论文收录量,中国第一2022维夕年度总结+GRE高分榜!2023接出分好运!CVPR 2023 | 大模型流行之下,SN-Net给出一份独特的答卷CVPR 2023 | EMA-VFI: 基于帧间注意力提取运动和外观信息的高效视频插帧速度提升24倍,30分钟完成室内大场景逆渲染,如视研究成果入选CVPR 2023CVPR 2023 | GAN的反击!朱俊彦新作GigaGAN,出图速度秒杀Stable DiffusionCVPR 2023 | 谷歌、MIT提出统一框架MAGE:表征学习超MAE,无监督图像生成超越 Latent Diffusion红颜知己CVPR 2023 | 超越MAE!谷歌提出MAGE:图像分类和生成达到SOTA!
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。