Redian新闻
>
​ICLR2024得分888居然被拒?Area Chair的Meta review完全事实性错误?

​ICLR2024得分888居然被拒?Area Chair的Meta review完全事实性错误?

公众号新闻

知乎:虚无
链接:https://www.zhihu.com/question/639592374/answer/3365302419

ICLR24得分888居然被拒?Area Chair的Meta review完全事实性错误?

TL;DR: AC把我们方法的超参数N=1理解为了攻击次数为1,于是认为我们评测不充分,并引用了autoattack这一大家认为充分的攻击。然而,我们全文(除了特殊的adaptive attack外),全部是使用的AC所引用的autoattack。这样的meta review是不是一种笑话?

文章链接Robust Classification via a Single Diffusion Model[1]
文章的blog链接扩散模型即为鲁棒分类器: Robust Classification via a Single Diffusion Model[2]

888据我所知似乎是iclr历史上被拒稿的最高分了。

我先简单介绍一下这篇论文:我们提出了一种新的分类算法,直接使用diffusion这种生成模型(无需CNN ViT等分类模型)来做鲁棒分类。在对抗攻防的领域下,新的防御算法一旦提出,需要进行各种adaptive attack来进行充分评测,从而确保鲁棒性并不是因为评测不充分造成的。因此,我们也进行了大量的adaptive attacks。同时,攻击步数越多,攻击通常来说就越强。我们使用了大家默认的评测方式AutoAttack(最少100步攻击)进行评测。我们得到了3个审稿人的一致好评,得分888.

Area Chair的核心论点是:one-step attack不足以充分评测防御。只有AutoPGD这种multi-step attack才能充分评测防御。

然而,我们全文从未使用过one-step attack。我们全文(除了攻击diffpure的adaptive attack外),全部使用的是Area Chair引用的"AutoPGD"。

这样完全的事实性错误也太搞笑了。我们用的方法就是AC所cite的方法。AC却认为我们用的是one-step attack。AC为什么会这么认为呢?我猜是因为AC把我们方法中的超参数N的 (N=1)直接误认为了是攻击次数为1。把N=5误认为了攻击次数是5次。

AC很可能根本就没有仔细阅读论文,就随意的把“N=1”理解为攻击次数为1。one-step attack显然不是充分的评测。但是给出Meta review之前,是否可以多花一点时间想一想,在整篇文章做了这么多adaptive attack的情况下,难道作者所有攻击要么5步要么1步么?作者有意识做adaptive attack,难道还不知道“one-step attack不充分”么.....三个审稿人给分888,如果真是“作者的攻击次数是1”,难道他们三个看不出来么。。。


下面我来回答一下Meta review的两个comments。

Comments 1: 理论分析部分和实际claim没有联系。并且不知道optimal diffusion classifier是怎么评测的。

我们在本篇文章中提出一个新的理论分析工具,即Diffusion Model和Diffusion Classifier的最优解。因此,我们只需要检验optimal下是否还有类似的问题。如果有,那我们应该改进模型;如果没有,那我们应该去查看empirical solution和optimal solution的区别,从而更好的改进我们的算法。我们发现对于对抗样本,主要区别在于empirical solution的diffusion loss相比optimal solution更小。这有且仅有2个原因。1) empirical情况下likelihood更小 2) ELBO和log likelihood差距大,从而导致diffusion classifier (theorem 1)近似误差过大。 为了解决这两个问题,我们提出likelihood maximization,去maximize elbo,同时增大likelihood,减小elbo和likelihood的误差。

至于optimal diffusion classifier的评测,我们在实验部分写的很清楚,除特殊声明和LM这种不可导的外,都是以"AutoAttack"进行评测的,即Area Chair引用的那个评测。我们使用AutoAttack,梯度又是准确的,同时几乎没有随机性,我们有理由相信评测是充分的。

Comments 2: 方法的高时间复杂度让作者无法用SOTA的白盒攻击来评测。作者只进行了one-step gradient attack,而这显然是不充分的。

经过其中一个审稿人的建议,我们已经测了real time cost。对于每张图片,之前的防御DiffPure需要0.60秒(linf)或0.72秒(l2)。而我们最终的方法需要1.43秒。时间复杂度高是我们的limitations,但不影响我们的评测。

最重要的是,"one-step gradient attack"当然是不充分的。但我们也当然知道这是不充分的,我们从头到尾就没用过one-step gradient attack。我们全用的是Area Chair所引用的"AutoAttack"。


一些评论

你有被高分拒过吗?谈谈你的看法~

参考资料

[1]

Robust Classification via a Single Diffusion Model: https://openreview.net/forum?id=I5lcjmFmlc

[2]

扩散模型即为鲁棒分类器: Robust Classification via a Single Diffusion Model: https://zhuanlan.zhihu.com/p/675067562



备注:昵称-学校/公司-方向/会议(eg.ACL),进入技术/投稿群


id:DLNLPer,记得备注呦

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
开班教课系列:简单电工(4)ICLR 2024 | 高分工作!Uni3D:3D基础大模型,刷新多个SOTA!《歌德堡变奏曲1471》ICLR接收结果出炉!有人提出异议:论文稍微超过9页,就被拒了??又一大城市宣布:事实性破产!ICLR 2024 首个!Harvard FairSeg:第一个用于医学分割的公平性数据集5A*早早被拒?24Fall牛剑拒信盘点,大多数被拒的真正原因可能是... ...ICLR 2024 | 根据压缩比率控制生成样本难度,NUS等提出首个无损数据集蒸馏方法HaluEval 2.0:大语言模型事实性幻象的实验性分析ICLR 2024 | 媲美DALLE-3!基座模型LaVIT刷榜多模态理解与生成任务男子汉宣言ICLR 2024 | 微软提出全新LLM剪枝方法:参数减少25%,大幅提升计算效率ICLR 2024 清华/新国大/澳门大学提出一模通吃的多粒度图文组合检索MUG:通过不确定性建模,两行代码完成部署投资者常犯的两大策略性错误周末碎碎念:秋夜、听雨、跑步、宝宝NIPS2023 | 评估大语言模型的事实性ICLR 2024 | 机器人领域首个开源视觉-语言操作大模型!RoboFlamingo框架激发开源VLMs更大潜能ICLR 2024 | OCTAVIUS: 通过MoE缓解MLLM任务间的干扰英国突发! 又一大城市宣布事实性破产; 两家A股公司董事长失联; 武汉8个楼盘放大招! | 早报Agent像人一样分工协作,还能“群聊”交换信息|ICLR2024 OralICLR 2024录用率31%!北大张铭、田渊栋、ResNeXt一作谢赛宁等大佬晒出成绩单ICLR 2024得分888居然被拒?Area Chair的Meta review完全事实性错误?香港高才通也会被拒?很有可能是因为这五个原因LLaMA2+RLHF=脆皮大模型?ICLR 2024高分投稿:多样性驱动的红蓝对抗鸿发超市「2000 万美元」买下82街前Walmart超市!开设第4家Hông Phát分店!头像|𝐒𝐡𝐚𝐫𝐞·招桃花头像ICLR 2024 放榜!接收率31%!清华LCM论文作者:讲个笑话,被拒了。。。英国诺丁汉市宣布事实性破产ICLR 2024接收率31%,清华LCM论文作者:讲个笑话,被拒了ICLR 2024 | Adobe提出DMV3D:3D生成只需30秒!让文本、图像都动起来的新方法!2024/25 Chevening Clore Leadership Fellowship 项目开放申请【线上Zoom活动】A Preview of ESG Challenges in 2024, 1月10日,星期三,晚8点周日长跑---自律的大叔,秋意正浓ICLR 2024 Oral | GitHub狂揽30k星!MetaGPT:增强多智能体协作能力ICLR 2024|把图像视为外语,快手、北大多模态大模型媲美DALLE-3
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。