Redian新闻
>
7262篇提交,ICLR 2024爆火,两篇国内论文获杰出论文提名

7262篇提交,ICLR 2024爆火,两篇国内论文获杰出论文提名

公众号新闻
机器之心报道
编辑:陈萍、亚鹂

今年共评选出 5 篇杰出论文奖以及 11 篇荣誉提名。


ICLR 全称为国际学习表征会议(International Conference on Learning Representations),今年举办的是第十二届,于 5 月 7 日至 11 日在奥地利维也纳展览会议中心举办。


在机器学习社区中,ICLR 是较为「年轻」的顶级学术会议,它由深度学习巨头、图灵奖获得者 Yoshua Bengio 和 Yann LeCun 牵头举办,2013 年才刚刚举办第一届。不过 ICLR 很快就获得了学术研究者们的广泛认可,被认为是深度学习的顶级会议。


本届会议共收到了 7262 篇提交论文,接收 2260 篇,整体接收率约为 31%,与去年持平(31.8%)。此外 Spotlights 论文比例为 5%,Oral 论文比例为 1.2%。




相比于往年,无论是参会人数还是论文提交量,ICLR 的热度可以说是有极大的提升。


历届 ICLR 论文数据图


在近日公布的获奖论文中,大会评选出了 5 篇杰出论文奖和 11 篇荣誉提名奖。


5 篇杰出论文奖

Outstanding Paper winners


论文:Generalization in diffusion models arises from geometry-adaptive harmonic representations




  • 论文地址:https://openreview.net/pdf?id=ANvmVS2Yr0

  • 机构:纽约大学、法兰西公学院

  • 作者:Zahra Kadkhodaie 、Florentin Guth 、Eero P. Simoncelli 、Stéphane Mallat


本文对图像扩散模型的泛化和记忆方面进行了重要的深入分析。作者通过实证研究了图像生成模型何时从记忆输入切换到泛化模式,并通过几何自适应谐波表示与谐波分析的思想建立联系,从架构归纳偏差的角度进一步解释了这一现象。本文涵盖了我们对视觉生成模型理解中缺失的关键部分,对未来研究启发巨大。


论文:Learning Interactive Real-World Simulators



  • 论文地址:https://openreview.net/forum?id=sFyTZEqmUY

  • 机构:UC 伯克利、 Google DeepMind 、 MIT 、阿尔伯塔大学

  • 作者:Sherry Yang、 Yilun Du 、 Kamyar Ghasemipour、Jonathan Tompson、Leslie Kaelbling、Dale Schuurmans、Pieter Abbeel


跨多个来源聚合数据以训练机器人基础模型是一个长期目标。由于不同的机器人具有不同的感知运动接口,这给跨大规模数据集的训练带来了重大挑战。


UniSim,是朝着这个方向迈出的重要一步,也是一项工程壮举,它利用了基于视觉感知和控制的文本描述的统一接口来聚合数据,并通过利用视觉和语言领域的最新发展来训练机器人模拟器。


总结而言,本文探索了通过生成模型学习真实世界交互的通用模拟器 UniSim,迈出了构建通用模拟器的第一步。例如 UniSim 可以通过模拟「打开抽屉」等高级指令和低级指令的视觉结果来模拟人类和智能体如何与世界交互。


本文将大量数据(包括互联网文本 - 图像对,来自导航、人类活动、机器人动作等的丰富数据,以及来自模拟和渲染的数据)结合到一个条件视频生成框架中。然后通过仔细编排沿不同轴的丰富数据,本文表明 UniSim 可以成功地合并不同轴数据的经验并泛化到数据之外,通过对静态场景和对象的细粒度运动控制来实现丰富的交互。


如下图 3 所示,UniSim 能够模拟一系列丰富动作,例如厨房场景中洗手、拿碗、切胡萝卜、擦干手这一系列动作;图 3 右上是按下不同的开关;图 3 下是两个导航场景。


对应上图 3 右下的导航场景


上图 3 右下的导航场景


论文:Never Train from Scratch: Fair Comparison of Long-Sequence Models Requires Data-Driven Priors



  • 论文地址:https://openreview.net/forum?id=PdaPky8MUn

  • 机构:特拉维夫大学、IBM

  • 作者:Ido Amos、Jonathan Berant、Ankit Gupta


这篇论文深入探讨了最近提出的状态空间模型和 transformer 架构对建模长期序列依赖性的能力。


令人惊讶的是,作者发现从头开始训练 transformer 模型会导致其性能被低估,并且通过预训练和微调设置可以实现显著的性能提升。该论文在关注简洁性和系统性见解方面表现极佳。


论文:Protein Discovery with Discrete Walk-Jump Sampling



  • 论文地址:https://openreview.net/forum?id=zMPHKOmQNb

  • 机构:基因泰克、纽约大学

  • 作者:Nathan C. Frey、Dan Berenberg、Karina Zadorozhny、Joseph Kleinhenz、Julien Lafrance-Vanasse、Isidro Hotzel、Yan Wu、Stephen Ra、Richard Bonneau、Kyunghyun Cho、Andreas Loukas、Vladimir Gligorijevic、Saeed Saremi


这篇论文解决了基于序列的抗体设计问题,这是蛋白质序列生成模型的一个及时而重要的应用。


为此,作者引入了一种创新而有效的新建模方法,用来专门针对处理离散蛋白质序列数据的问题。除了在硅中验证该方法外,作者还进行了大量的湿法实验室实验,以测量体外抗体结合亲和力,展示了他们生成方法的有效性。


论文:Vision Transformers Need Registers



  • 论文地址:https://openreview.net/forum?id=2dnO3LLiJ1

  • 机构:Meta 等

  • 作者:Timothée Darcet、Maxime Oquab、Julien Mairal、Piotr Bojanowski


该篇论文识别了 vision transformer 网络的特征图中的人工痕迹,这些痕迹以低信息背景区域中的高范数 tokens 为特征。


作者提出了这种现象发生的关键假设,并提供了一个简单而优雅的解决方案,使用额外的 register tokens 来解决这些痕迹,从而增强了模型在各种任务上的性能。从这项工作中获得的见解还可以影响其他应用领域。


这篇论文行文极佳,为进行研究提供了一个很好的示范:「识别问题,理解其发生的原因,然后提出解决方案。」


11 篇荣誉提名


除了 5 篇杰出论文,ICLR 2024 还评选出了 11 篇荣誉提名奖。


论文:Amortizing intractable inference in large language models


  • 机构:蒙特利尔大学、牛津大学

  • 作者:Edward J Hu、Moksh Jain、Eric Elmoznino、Younesse Kaddar、Guillaume Lajoie、Yoshua Bengio、Nikolay Malkin

  • 论文地址:https://openreview.net/forum?id=Ouj6p4ca60


这篇论文从贝叶斯推理的角度提出了一种在大型语言模型中替代自回归解码的有前景的方法,这可能会激发后续研究。


论文:Approximating Nash Equilibria in Normal-Form Games via Stochastic Optimization


  • 机构:DeepMind

  • 作者:Ian Gemp、Luke Marris、Georgios Piliouras

  • 论文地址:https://openreview.net/forum?id=cc8h3I3V4E


这是一篇写得非常清晰的论文,对解决开发高效且可扩展的纳什求解器这一重要问题意义重大。


论文:Beyond Weisfeiler-Lehman: A Quantitative Framework for GNN Expressiveness


  • 机构:北京大学、北京智源人工智能研究院

  • 作者:张博航 盖景初 杜逸恒 叶启威 贺笛 王立威

  • 论文地址:https://openreview.net/forum?id=HSKaGOi7Ar


GNN 的表达能力是一个重要课题,而当前的解决方案仍然存在很大的局限性。作者提出了一种基于同态计数的新表达理论(expressivity theory)。


论文:Flow Matching on General Geometries


  • 机构:Meta

  • 作者:Ricky T. Q. Chen、Yaron Lipman

  • 论文地址:https://openreview.net/forum?id=g7ohDlTITL


本文探讨了在一般几何流形上进行生成建模这一具有挑战性但又十分重要的问题,并提出了一种实用且高效的算法。本文的呈现非常出色,并在广泛的任务上进行了全面的实验验证。


论文:Is ImageNet worth 1 video? Learning strong image encoders from 1 long unlabelled video


  • 机构:中佛罗里达大学、 Google DeepMind、阿姆斯特丹大学等

  • 作者:Shashanka Venkataramanan、Mamshad Nayeem Rizve、Joao Carreira、Yuki M Asano、Yannis Avrithis

  • 论文地址:https://openreview.net/forum?id=Yen1lGns2o


本文提出了一种新颖的自监督图像预训练方法,即通过从连续视频中学习。本文既贡献了新类型的数据,也贡献了一种从新数据中学习的方法。

 

论文:Meta Continual Learning Revisited: Implicitly Enhancing Online Hessian Approximation via Variance Reduction


  • 机构:香港城市大学、腾讯 AI 实验室、西安交通大学等

  • 作者:Yichen Wu、Long-Kai Huang、Renzhen Wang、Deyu Meng、魏颖(Ying Wei)

  • 论文地址:https://openreview.net/forum?id=TpD2aG1h0D


作者提出了一种新的元连续学习方差减少方法。该方法表现良好,不仅具有实际影响,而且还得到了 regret 分析的支持。


论文:Model Tells You What to Discard: Adaptive KV Cache Compression for LLMs


  • 机构:伊利诺伊大学厄巴纳 - 香槟分校、微软

  • 作者:Suyu Ge、Yunan Zhang、Liyuan Liu、Minjia Zhang、Jiawei Han、Jianfeng Gao

  • 论文地址:https://openreview.net/forum?id=uNrFpDPMyo


本文针对 KV 缓存压缩问题(该问题对基于 Transformer 的 LLM 影响很大),通过一个简单的想法来减少内存,并且无需耗费大量资源进行微调或重新训练即可部署。这种方法非常简单,事实证明它非常有效。


论文:Proving Test Set Contamination in Black-Box Language Models


  • 机构:斯坦福大学、哥伦比亚大学

  • 作者:Yonatan Oren、Nicole Meister、Niladri S. Chatterji、Faisal Ladhak、Tatsunori Hashimoto

  • 论文地址:https://openreview.net/forum?id=KS8mIvetg2


本文使用了一个简单而优雅的方法,用于测试受监督的学习数据集是否已被包含在大型语言模型的训练中。


论文:Robust agents learn causal world models


  • 机构:Google DeepMind

  • 作者:Jonathan Richens、Tom Everitt

  • 论文地址:https://openreview.net/forum?id=pOoKI3ouv1


这篇论文在奠定理论基础方面取得了长足进展,以便理解因果推理在智能体推广到新领域的能力中所起到的作用,对一系列相关领域也产生了影响。


论文:The mechanistic basis of data dependence and abrupt learning in an in-context classification task


  • 机构:普林斯顿大学、哈佛大学等

  • 作者:Gautam Reddy

  • 论文地址:https://openreview.net/forum?id=aN4Jf6Cx69

 

这是一项及时而极其系统性的研究,探讨了我们在开始理解这些现象的时候,in-context 学习与 in-weight 学习之间的机制。


论文:Towards a statistical theory of data selection under weak supervision


  • 机构:Granica Computing

  • 作者:Germain Kolossov、Andrea Montanari、Pulkit Tandon

  • 论文地址:https://openreview.net/forum?id=HhfcNgQn6p


这篇论文为数据子集选择建立了统计基础,并确定了流行的数据选择方法的缺点。


参考链接:https://blog.iclr.cc/2024/05/06/iclr-2024-outstanding-paper-awards/





© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
巧解「数据稀缺」问题!清华开源GPD:用扩散模型生成神经网络参数|ICLR 2024今日arXiv最热NLP大模型论文:韩国团队提出ResearchAgent系统,模仿人类产出论文idea多模态融合再度领跑ICLR 2024!这56种创新SOTA方案必看突发!康奈尔大学反悔:2025年建议提交,2026年恢复标化要求ICLR 2024 Spotlight | 无惧中间步骤,MUSTARD可生成高质量数学推理数据ICLR 2024 杰出论文!涨点神器!Meta提出:ViT需要RegistersICLR 2024 | 理解图神经网络在规则学习中的表达能力在 ICLR 2024,看见中国大模型的力量ICLR 2024|用巧妙的「传送」技巧,让神经网络的训练更加高效ICLR2024:南洋理工发布!改几个参数就为大模型注入后门ICLR 2024 杰出论文奖揭晓!两篇国内论文获荣誉提名ICLR 2024 | RLHF有了通用平台和基准,天大开源,专攻现实决策场景ICLR 2024 | 阐明扩散模型中的曝光偏差问题,一行代码大幅提升生成质量LLM性能最高60%提升!谷歌ICLR 2024力作:让大语言模型学会「图的语言」首个ICLR时间检验奖出炉!3万被引论文奠定图像生成范式,DALL-E 3/SD背后都靠它看看完美婚姻是如何走向死亡的ICLR 2024 | 鸡生蛋蛋生鸡?再论生成数据能否帮助模型训练CVPR、ICLR、AAAI 2024优秀论文!2024爆款雪糕集合,你想去批发哪款?ICLR 2024 | 连续学习不怕丢西瓜捡芝麻,神经形态方法保护旧知识ICLR 2024 | 跨领域准确进行零样本异常检测,浙大等提出AnomalyCLIPICLR 2024 Oral|用巧妙的「传送」技巧,让神经网络的训练更加高效葡萄牙卡斯凯什(Cascais),小街小巷CVPR、AAAI、ICLR 2024优秀论文!CVPR、AAAI、ICLR 2024满分论文出炉!奠基性VAE荣获ICLR首届「时间检验奖」!国内学者获2篇杰出论文提名70亿LLaMA媲美5400亿PaLM!MIT惊人研究用「博弈论」改进大模型|ICLR 2024ICLR 2024 | 再论生成数据能否帮助模型训练?ICLR 2024 | 量化和增强模态偏好影响下的多模态鲁棒性年少时的梦啊《尘封档案》拾遗之057:申城反标案大量华人受影响!澳洲电子烟防控新法提交,制造商或面临7年监禁与$220万罚款!ICLR 2024 | 冻结住的CLIP仍可作为教师模型!港大提出全新开集动作识别模型七绝二首(新韵)ICLR 2024 | AnomalyCLIP:零样本异常检测新范式
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。