Redian新闻
>
拒稿4次,终获顶会!ICML 2024放榜:投稿量近万篇,审稿意见下滑严重

拒稿4次,终获顶会!ICML 2024放榜:投稿量近万篇,审稿意见下滑严重

科技



  新智元报道  

编辑:桃子 LRS
【新智元导读】一年一度的ICML 2024录用结果出炉!今年投稿量再涨3000+,达到9653,审稿意见质量太差,AC还得重读论文才能确定结论。

刚刚,ICML 2024顶会最终录用结果,公布了!

本次会议的投稿量初步统计为9653篇,而去年的投稿量只有6538篇。

第42届ICML会议(每年一次)将于7月21-27日在奥地利维也纳举办,中稿的小伙伴可以开始准备了!

从历年的统计中可以看到,ICML的投稿量增长速度非常快,今年更是创下了历史新高,提交量大涨3000多篇。

审稿质量太差


作为会议的AC,Peter Richtarik表示他总共处理了19篇论文,接受论文的平均分为4.25-6.33,被拒论文的平均分为2.60-6.00。

他也指出了一个严峻的问题,就是审稿意见的质量太差了,不管是正向还是负面的意见,有很多都是错误的,导致自己经常很晚才能提交meta-review,不得不亲自读一遍论文。

有网友分享经历,论文收到的评分为7/3/3/4,被拒稿了,他只认可其中一人的审稿意见,另外两个人的表现完全就像是「本科生」。

他们给出的意见包括「不是预训练的神经网络,不能很好地泛化」、「只使用了小数据(论文明确说明用于小数据学习)」、「基于树的方法无法扩展」、「结果并不是所有使用的数据集上最好的,所以该方法没用」、「有 2021 年之前的参考资料,太过时了」之类的逆天言论。

另一个被拒稿的评分为6653,作者认为其中3人明显误解了方法,并在rebuttal环节中道歉了,但只是将置信度分数从4更改为3,然后AC还是决定拒稿。

只能说,被拒稿倒是小事,审稿水平低才是大问题。

也有网友分享了他的励志经历,被拒稿4次之后,当时还以为自己毫无价值,现在终于中了博士生涯的第一篇论文,得偿所愿了!

网友晒出成绩单


大模型加速器


滑铁卢大学矢量研究所、北京大学、微软研究院的研究人员提出的「可提高语言模型效率的外推算法」EAGLE被ICML 2024录用。

EAGLE是一种快速解码大型语言模型 (LLMs) 的全新基线模型,通过实验证明了模型性能几乎不会损失,该方法将LLMs第二顶层的上下文特征向量进行外推,从而显着提高生成效率:

论文链接:https://arxiv.org/pdf/2401.15077

项目主页:https://sites.google.com/view/eagle-llm

1、生成速度比标准解码(13B)快3倍、比Lookahead (13B) 快 2 倍、比 Medusa (13B) 快 1.6 倍

2、在生成文本的分布中,证明了其结果与普通解码具有一致性;

3、1-2天内可训练完毕,在8x RTX 3090 GPU 上进行测试,即使GPU资源匮乏的人也能使用该算法加速;

4、可与其他并行技术相结合,例如vLLM、DeepSpeed、Mamba、FlashAttention、量化和硬件优化。

用大模型进行结构化学推理


伊利诺伊大学厄巴纳-香槟分校、上海交大、纽约大学等机构的研究人员发布的StructChem,使用了一种简单而有效的提示策略,就可以让LLMs进行复杂的化学推理。

研究人员发现LLM通常拥有解决复杂化学挑战所需的基本知识,但却缺乏解锁正确/相关知识和指导精确、逐步推理所需的结构化推理。

论文链接:https://arxiv.org/abs/2311.09656

项目主页:http://ozyyshr.github.io/StructChem

文中总结了当前最先进的LLM(例如GPT-4)无法解决的四个主要错误。

新方法StructChem包括三个步骤,可以作为LLM的引导:

1、公式收集,要求LLM提供公式及其解释作为基础;

2、逐步推理,以PoT生成的公式为基础,确保精确性;

3、基于置信度的审查和细化,进一步检查每个推理步骤的准确性。

在SciBench上进行的实验结果显示,StructChem在few-shot和zero-shot设置的复杂化学难题中实现了30%的性能飞跃。

从fMRI重建图像


值得一提的是,来自Stability AI、医学AI研究中心(MEDARC)等机构的研究人员升级了模型MindEye2。

只需要1小时的数据,它便可以从fMRI大脑活动中重建和检索图像,甚至可以将2D图像转化为3D视频,堪称一项革命性的技术。

这篇论文同时被ICML和ICLR接收。

而在实际的应用中,MindEye2表现出了惊人的性能。比如,在图像检索任务中,其准确率超过90%,超越以往的方法。

另外,得益于使用预训练的生成模型,MindEye2在图像重建方面也取得了显著的效果。

论文地址:https://arxiv.org/pdf/2403.11207

生成式机器人智能体


来自CMU、清华大学交叉信息研究院、MIT等机构的研究人员提出的RoboGen论文被接受收。

这项研究提出的RoboGen,是一种通过通过生成式模拟,自住学习多种机器人技能的生成机器人智能体。

最新方法利用了基础模型和生成模型的最新进展。

论文地址:https://arxiv.org/pdf/2311.01455

不是直接使用或调整这些模型来产生策略或低级别的行动,而是生成式方案,其用这些模型来自动生成多样任务、场景和训练监督,从而在最少的监督下扩大机器人技能学习。

博弈学习


论文解决了在单调博弈(monotone games)中学习纳什均衡的问题,其中收益函数的梯度在策略配置文件空间中是单调的,可能包含加性噪声。

论文链接:https://arxiv.org/pdf/2305.16610

研究人员首先建立一个统一的框架来学习单调游戏中的平衡,适应完整和嘈杂的反馈;

然后在不考虑噪声的情况下,构建出趋向于近似平衡的收敛率。

最后通过更新弹弓策略(slingshot strategy)来引入一个转折(twist),以有限的间隔锚定当前策略,使得模型能够确定具有保证率的基础博弈的确切纳什均衡。

文中所提出的框架非常全面,集成了现有的收益扰动算法,并且通过实验证明了,基于该框架的算法可以显着加速收敛。

图高斯过程


来自伦敦大学AI中心的研究人员,关于图高斯过程的论文正式被ICML接受。

行业内对开发图机器学习模型以解决拓扑归纳偏差产生了很大的兴趣,特别是对此类结构的高斯过程给予了高度关注,可以用来解释不确定性,但图仅限于对两个顶点之间的关系进行建模。

该论文不止使用二元任务设置,而是考虑多元关系,包括顶点、边及单元(cells)之间的相互作用。

论文地址:https://arxiv.org/pdf/2311.01198

具体来说,研究人员提出了单元复合体(cellular complexes)的高斯过程,可以捕获高阶单元之间相互作用的图的泛化。

论文的主要贡献之一是对两种全新内核进行推导,包括Matérn内核和另一种混合了不同单元类型的信息的内核。

除此以外,还有很多大佬纷纷晒出了自己的成绩单。

开创性论文有几篇?


与此同时,Reddit网友在线发出灵魂拷问:

ICML、NeurIPS、CVPR等顶会,究竟有多少篇论文是真正具有开创性的?

我自己也在顶会上发表过一些论文,但每当我坐下来反思时,又觉得我的工作虽然不错,但影响力并不大,就像砌墙时的一块普通砖头。我困惑的是,我们什么时候可以看到像「Attention is All You Need」这样有重大影响力的突破性工作。

有网友表示,会议评审过程总是偏爱略有创新的论文。通常情况下,具有极大突破性的论文被接受的概率较低。

最典型的例子是,Ruslan Salakhutdinov和Geoffrey Hinton合著的论文——为Netflix竞赛提出的方法,被NIPS 2006拒绝了。

当时,其中一位审稿人非常严厉地评论道,「这是垃圾,我非常确信这真的是垃圾」。

没想到,他们的论文最终被ICML2007接受,并且这个方法成为了最终冠军团队算法中的一个重要组成部分。

论文地址:https://www.cs.toronto.edu/~amnih/papers/rbmcf.pdf

一位审稿人承认道,也许我有某种偏见。

但作为一名评审,我经常看到这种情况。「略有创新」的东西很容易被接受,而更具突破性的想法往往至少有一个审稿人完全误解了一切,或者本能地不喜欢这个想法。

这只是同行评审制度的自然结果——略有创新的论文很容易被理解。

只要写得好,有大量实验,其被接受的几率就很高。

攻击一个已经被社区广泛接受的想法也是困难的。相反,一篇创新的论文需要审稿人付出更多的努力,而且很容易被误解。

而真正具有开创性论文,在我们产出的大量「垃圾」论文中所占比例不到1%。

可见,做出开创性成果是非常困难的,所以我们要更重视数量(任何结果,证明研究人员值得公共支出),而非质量(好的结果)。而不相关的贡献最终也会被历史和时间所淘汰。

这确实是值得每个人思考的一个问题。


参考资料:
https://twitter.com/peter_richtarik/status/1783752833348534610
https://www.reddit.com/r/MachineLearning/comments/1cfm9ep/d_icml_2024_results/
https://www.reddit.com/r/MachineLearning/comments/1chfqca/d_icml_2024_decision_thread/





微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
ICML 2024 | 大语言模型预训练新前沿:最佳适配打包重塑文档处理标准ICML 2024 | 即插即用!无需训练!基于球面高斯约束引导的条件扩散模型惨!研三医学生投稿纯生信,反复被拒稿后,险些被延毕……(内含福利)ARR | 4月投稿周期开始添加强制审稿要求2024Fall RD放榜:莱斯大学大陆校录取63人特斯拉交付量罕见下滑,分析师惊呼:没想到这么差,这是一场灾难以ACL 2024为例,从投稿到接收:顶会投稿后全流程揭秘大批协和、华西医生抢发一区!近万篇文章PubMed上线!春招尾声丨2024放岗数量同比下降,上岸难度……ChatGPT也在评审你的顶会投稿,斯坦福新研究捅了马蜂窝,“这下闭环了”ICML 2024 | 通过随机微分方程统一贝叶斯流网络和扩散模型《人民就是江山》&《我追烟火而来》量化大模型退化严重?ETH北航字节推出LoRA新范式 | ICML 2024饮食高球味,人间烟火情(11)高球“黑话”多德胜学区,大师赛银2次,一等奖4次,八素试读,早培入营,几经周折,最终拿到四中船票|Oliver妈妈大模型与具身智能的火花,ICML 2024 MFM-EAI Workshop征稿和挑战赛启动识别细胞也能用大模型了!清华系团队出品,已入选ICML 2024 | 开源【诚邀投稿】2024 IEEE国际电能转换系统与控制会议(IEEE IEECSC 2024)Mamba将在MICCAI 2024、ACM MM 2024和ECCV 2024上爆发?!ICML 2024 | 大语言模型预训练新前沿:「最佳适配打包」重塑文档处理标准【重磅消息】优秀论文可进多个国际顶级期刊,目前投稿踊跃,INDIN大会论文投稿截至日应邀延至本月末,欢迎投稿!审稿人角度:一篇顶会论文有哪些选题技巧?ICML2024高分论文!大模型计算效率暴涨至200%,来自中国AI公司ICML 2024 | 面向第三代推荐系统:Meta提出首个生成式推荐系统模型个人感慨之109 不吹牛会死三支国内团队获荣誉提名,英伟达CMU各占40%!ACM顶会SIGGRAPH 2024最佳论文揭晓童话世界,丹麦小镇SolvangICML 2024 | 北大、字节提出新型双层位置编码方案,有效改善长度外推效果重磅!视觉Mamba正式收录顶会ICML 2024!顶会投稿之后会经历什么?以ACL ARR 2024 Feb.为例ACM顶会SIGGRAPH 2024最佳论文揭晓,英伟达CMU各占40%!三支国内团队获荣誉提名ICML 2024 | 脱离LoRA架构,训练参数大幅减少,新型傅立叶微调来了从以巴战争的态度看人的认知障碍ICML 2024 | 大语言模型如何表征不同信念?ICML 2024 | 量化大模型退化严重?ETH北航字节推出LoRA新范式
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。