Redian新闻
>
ICLR 2024得分888居然被拒?Area Chair的Meta review完全事实性错误?

ICLR 2024得分888居然被拒?Area Chair的Meta review完全事实性错误?

公众号新闻

点击下方卡片,关注“CVer”公众号

AI/CV重磅干货,第一时间送达

点击进入—>【CV技术和求职】交流群

前两天ICLR 2024开奖,有些论文争议还是比较大的,特别是高分被拒的工作。Amusi 就发现了知乎上有位同学的发帖回答,居然是888超高分被拒,看起来相当震惊且离谱。下面看看具体介绍:

作者:虚无@知乎
https://www.zhihu.com/question/639592374/answer/3365302419

ICLR24得分888居然被拒?Area Chair的Meta review完全事实性错误?

TL;DR: AC把我们方法的超参数N=1理解为了攻击次数为1,于是认为我们评测不充分,并引用了autoattack这一大家认为充分的攻击。然而,我们全文(除了特殊的adaptive attack外),全部是使用的AC所引用的autoattack。这样的meta review是不是一种笑话?

文章链接:Robust Classification via a Single Diffusion Model
文章的blog链接:虚无:扩散模型即为鲁棒分类器:Robust Classification via a Single Diffusion Model

888据我所知似乎是iclr历史上被拒稿的最高分了。

我先简单介绍一下这篇论文:我们提出了一种新的分类算法,直接使用diffusion这种生成模型(无需CNN ViT等分类模型)来做鲁棒分类。在对抗攻防的领域下,新的防御算法一旦提出,需要进行各种adaptive attack来进行充分评测,从而确保鲁棒性并不是因为评测不充分造成的。因此,我们也进行了大量的adaptive attacks。同时,攻击步数越多,攻击通常来说就越强。我们使用了大家默认的评测方式AutoAttack(最少100步攻击)进行评测。我们得到了3个审稿人的一致好评,得分888.

AC的意见

Area Chair的核心论点是:one-step attack足以充分评测防御。只有AutoPGD这种multi-step attack才能充分评测防御。

然而,我们全文从未使用过one-step attack。我们全文(除了攻击diffpure的adaptive attack外),全部使用的是Area Chair引用的"AutoPGD"。

这样完全的事实性错误也太搞笑了。我们用的方法就是AC所cite的方法。AC却认为我们用的是one-step attack。AC为什么会这么认为呢?我猜是因为AC把我们方法中的超参数N的 (N=1)直接误认为了是攻击次数为1。把N=5误认为了攻击次数是5次。

AC很可能根本就没有仔细阅读论文,就随意的把“N=1”理解为攻击次数为1。one-step attack显然不是充分的评测。但是给出Meta review之前,是否可以多花一点时间想一想,在整篇文章做了这么多adaptive attack的情况下,难道作者所有攻击要么5步要么1步么?作者有意识做adaptive attack,难道还不知道“one-step attack不充分”么.....三个审稿人给分888,如果真是“作者的攻击次数是1”,难道他们三个看不出来么。。。


下面我来回答一下Meta review的两个comments。

Comments 1: 理论分析部分和实际claim没有联系。并且不知道optimal diffusion classifier是怎么评测的。

我们在本篇文章中提出一个新的理论分析工具,即Diffusion Model和Diffusion Classifier的最优解。因此,我们只需要检验optimal下是否还有类似的问题。如果有,那我们应该改进模型;如果没有,那我们应该去查看empirical solution和optimal solution的区别,从而更好的改进我们的算法。我们发现对于对抗样本,主要区别在于empirical solution的diffusion loss相比optimal solution更小。这有且仅有2个原因。1) empirical情况下likelihood更小 2) ELBO和log likelihood差距大,从而导致diffusion classifier (theorem 1)近似误差过大。为了解决这两个问题,我们提出likelihood maximization,去maximize elbo,同时增大likelihood,减小elbo和likelihood的误差。

至于optimal diffusion classifier的评测,我们在实验部分写的很清楚,除特殊声明和LM这种不可导的外,都是以"AutoAttack"进行评测的,即Area Chair引用的那个评测。我们使用AutoAttack,梯度又是准确的,同时几乎没有随机性,我们有理由相信评测是充分的。

Comments 2: 方法的高时间复杂度让作者无法用SOTA的白盒攻击来评测。作者只进行了one-step gradient attack,而这显然是不充分的。

经过其中一个审稿人的建议,我们已经测了real time cost。对于每张图片,之前的防御DiffPure需要0.60秒(linf)或0.72秒(l2)。而我们最终的方法需要1.43秒。时间复杂度高是我们的limitations,但不影响我们的评测。

最重要的是,"one-step gradient attack"当然是不充分的。但我们也当然知道这是不充分的,我们从头到尾就没用过one-step gradient attack。我们全用的是Area Chair所引用的"AutoAttack"。

--- 我是分割线 --- 

Amusi发现评论区中不少同学反馈这篇工作被拒太离谱了,而且像去年爆火的Mamba工作仍在ICLR 2024 pending中。。。虽然是金子,总会发光,但被拒的原因过于离谱,也只会给作者和审稿人泼恶意的冷水。

点击进入—>【CV技术和求职】交流群

计算机视觉技术交流群成立

扫描下方二维码,或者添加微信:CVer444,即可添加CVer小助手微信,便可申请加入CVer-计算机视觉微信交流群。另外其他垂直方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch、TensorFlow和Transformer、NeRF等。


一定要备注:研究方向+地点+学校/公司+昵称(如目标检测+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群

▲扫码或加微信号: CVer444,进交流群


CVer计算机视觉(知识星球)来了!想要了解最新最快最好的CV/DL/AI论文速递、优质实战项目、AI行业前沿、从入门到精通学习教程等资料,欢迎扫描下方二维码,加入CVer计算机视觉(知识星球),已汇集近万人!


扫码加入星球学习


▲点击上方卡片,关注CVer公众号

整理不易,请点赞和在看

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
ICLR 2024 | OCTAVIUS: 通过MoE缓解MLLM任务间的干扰【线上Zoom活动】A Preview of ESG Challenges in 2024, 1月10日,星期三,晚8点头像|𝐒𝐡𝐚𝐫𝐞·招桃花头像老烟记事(386) 错车午后的课 (平行宇宙铁道之夜)ICLR 2024 | 高分工作!Uni3D:3D基础大模型,刷新多个SOTA!ICLR 2024 清华/新国大/澳门大学提出一模通吃的多粒度图文组合检索MUG:通过不确定性建模,两行代码完成部署LLaMA2+RLHF=脆皮大模型?ICLR 2024高分投稿:多样性驱动的红蓝对抗阁楼时光​ICLR2024得分888居然被拒?Area Chair的Meta review完全事实性错误?ICLR 2024 | 机器人领域首个开源视觉-语言操作大模型!RoboFlamingo框架激发开源VLMs更大潜能ICLR 2024 | Adobe提出DMV3D:3D生成只需30秒!让文本、图像都动起来的新方法!5A*早早被拒?24Fall牛剑拒信盘点,大多数被拒的真正原因可能是... ...ICLR 2024|把图像视为外语,快手、北大多模态大模型媲美DALLE-3ICLR 2024 | LLM Agent领域第一高分论文,全网Star数最高的多智能体框架47、长篇民国小说《永泰里》第十章 同根异枝(2)ICLR 2024接收率31%,清华LCM论文作者:讲个笑话,被拒了48、长篇民国小说《永泰里》第十章 同根异枝(3)2024/25 Chevening Clore Leadership Fellowship 项目开放申请ICLR接收结果出炉!有人提出异议:论文稍微超过9页,就被拒了??ICLR 2024录用率31%!北大张铭、田渊栋、ResNeXt一作谢赛宁等大佬晒出成绩单ICLR 2024 | 媲美DALLE-3!基座模型LaVIT刷榜多模态理解与生成任务ICLR 2024 | 根据压缩比率控制生成样本难度,NUS等提出首个无损数据集蒸馏方法NIPS2023 | 评估大语言模型的事实性英国突发! 又一大城市宣布事实性破产; 两家A股公司董事长失联; 武汉8个楼盘放大招! | 早报香港高才通也会被拒?很有可能是因为这五个原因又一大城市宣布:事实性破产!投资者常犯的两大策略性错误英国诺丁汉市宣布事实性破产ICLR 2024 放榜!接收率31%!清华LCM论文作者:讲个笑话,被拒了。。。ICLR 2024 | 微软提出全新LLM剪枝方法:参数减少25%,大幅提升计算效率ICLR 2024 首个!Harvard FairSeg:第一个用于医学分割的公平性数据集ICLR 2024 Oral | GitHub狂揽30k星!MetaGPT:增强多智能体协作能力HaluEval 2.0:大语言模型事实性幻象的实验性分析鸿发超市「2000 万美元」买下82街前Walmart超市!开设第4家Hông Phát分店!
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。