Redian新闻
>
NeurIPS 2022 Oral | 基于最优子集的神经集合函数学习方法EquiVSet

NeurIPS 2022 Oral | 基于最优子集的神经集合函数学习方法EquiVSet

公众号新闻

机器之心专栏

机器之心编辑部

腾讯 AI Lab、帝国理工与中山大学合作发表论文《Learning Neural Set Functions Under the Optimal Subset Oracle》,提出基于最优子集的集合函数学习方法。


集合函数被广泛应用于各种场景之中,例如商品推荐、异常检测和分子筛选等。在这些场景中,集合函数可以被视为一个评分函数:其将一个集合作为输入并输出该集合的分数。我们希望从给定的集合中选取出得分最高的子集。鉴于集合函数的广泛应用,如何学习一个适用的集合函数是解决许多问题的关键。为此,腾讯 AI Lab、帝国理工与中山大学合作发表论文《Learning Neural Set Functions Under the Optimal Subset Oracle》,提出基于最优子集的集合函数学习方法。该方法在多个应用场景中取得良好效果。论文已被 NeurIPS 2022 接收并选为口头报告(Oral Presentation)。


  • 论文地址:https://arxiv.org/abs/2203.01693

  • 代码地址:https://github.com/SubsetSelection/EquiVSet


一、引言


很多现实应用场景与集合密切相关,例如推荐系统、异常检测和分子筛选等。这些应用都潜在地学习了一个集合函数来评价给定集合的得分,使得输出的集合拥有最高得分。以商品推荐为例子(如下图所示),我们希望从某个网店的商品库V中推荐子集,使得用户对该商品子集拥有最高评分


图 1 集合函数学习在商品推荐中的例子


具体地,我们假设每个用户心中存在一个评分函数,该函数将一个商品子集作为输入,输出用户对该子集的评分,即用户总是从系统推荐的商品集合中购买得分最高的商品子集:



我们希望学习一个函数,使其尽可能逼近真正的评分函数. 然而在实际应用场景,由于标注成本过高,我们无法得到用户对每一个商品子集的评分。因此,我们假设数据集的形式为,其中为用户i购买的商品子集,为对应的商品库。我们希望找到合适的参数, 使得用户购买的商品最大化集合函数


然而找到合适的参数并不是一件容易的事情。为此,我们将目标函数定义为最大似然估计



其中我们通过的正比约束使得最终学习到的集合函数满足上文的要求。进一步地,我们希望该概率分布及由此推导的训练方法满足若干的性质,如:置换不变性、最小先验假设和可扩展性(scalability)等。


在本文中,我们提出了等变变分集合函数学习方法 (Equivariant Variational inference for Set function learning. EquiVSet). 具体地,我们使用能量模型(energy-based models)建模概率能量模型是最大熵分布,满足最小先验假设。其次,我们通过 DeepSet 类型的模型架构建模集合函数,使其满足置换不变性;最后我们使用均摊变分分布来满足可扩展性的要求。实验证明,EquiVSet 在商品推荐、异常检测和分子筛选等现实应用场景中都有出色表现。值得一提的是,虽然传统的端到端子集预测模型也适用于以上场景,但是他们通常属于黑盒模型。在本文中,我们显式建模集合函数,并通过最大化集合函数来进行子集预测。学习的集合函数可用来评价不同子集的效益,因此更具有可解释性。

二、方法简介


图 2 EquiVSet 训练和推理过程概览


我们首先将概率模型定义为能量模型:, 并用 DeepSet 架构对能量函数进行建模,从而实现置换不变性。此外,由于能量模型为最大熵分布,其具有最小信息先验假设的特点。为了训练该模型,我们进一步引入了变分分布, 并通过神经网络对其进行建模。如图 2 所示,模型训练包含两个步骤:


1. 为了学习变分,我们可以最小化之间的 KL 距离。

2. 为了训练模型,我们首先通过神经网络 EquiNet 输出变分分布的初始参数, 然后通过平均场变分推断来更新变分参数,使其逼近模型分布此外,该步骤可以让模型参数依赖于变分参数因此我们可以通过最小化交叉熵损失来更新模型参数.

模型通过反复迭代步骤 1 和 2 来更新参数, 从而达到合作式训练变分网络 EquiNet 和能量网络的目的。这种合作学习方式的效果可以通过图 3 形象示意:在每轮迭代中,我们通过均摊变分推断来更新变分分布的参数,使其不断逼近模型参数更新完毕后,我们通过最小化交叉熵损失来训练模型,使其不断逼近真实数据分布模型训练完毕后,近似地成立,因此我们可以根据变分参数来选取最优子集。值得注意的是, 算法角度来说, 简单使用端到端子集预测模型相当于只建模了变分网络 EquiNet, 即只建模了变分分布, 因此无法达到合作学习的目的。  我们后续的实验部分也验证了这种端到端子集预测方法的性能与合作学习方法 EquiVSet 相差甚远。  

图 3 EquiVSet 参数更新示意图


三、实验结果


为了验证 EquiVSet 的有效性,我们在三个任务上进行测试:商品推荐、异常检测和分子筛选。


1. 在商品推荐任务中,我们使用 amazon baby register dataset,该数据集包含了真实的用户购买记录。在该任务上,EquiVSet 在大部分场景中都取得最佳性能。具体地,相比于先前的 SOTA 算法 PGM,EuiVSet 的性能平均提升 33%。相比于传统的黑盒端到端子集预测方法 DeepSet(NoSetFn)(该方法相当于仅建模了变分网络 EquiNet),EquiVSet 的性能平均提升 39%,说明了显式建模集合函数的重要性。



2. 在异常检测任务中,我们使用四个经典数据集:double mnist,celebA,fashion-mnist 和 cifar-10。下图给出了 celebA 上异常检测的例子。


图 3 celebA 数据集。每一行是一个数据样本。在每个样本中,正常图片拥有两个共同属性(最右列),异常图片(红色方框)没有该属性。


以下表格提供不同方法在该任务上的性能对比,可以看出 EquiVSet 显著优于其他方法, 并比 PGM 和 DeepSet(NoSetFn) 的性能分别平均提高 37% 和 80%。


 

3. 在分子筛选中,我们使用 PDBBind 和 BindingDB 两个经典数据。该任务是从给定的分子库中,筛选出符合一定属性的分子。下表是 EquiVSet 和各个方法的对比结果。


四、结论


本文提出的基于最优子集的集合函数学习方法。通过将集合概率定义成能量模型,使得模型满足置换不变性、最小先验等特点。借助最大似然方法和等变变分技巧,模型能够高效地训练和推理。在商品推荐、异常检测和分子筛选上的应用认证了该方法的有效性。



© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
西电 NeurIPS 2022 | 基于结构聚类的异质图自监督学习积木式深度学习的正确玩法!新加坡国立大学发布全新迁移学习范式DeRy,把知识迁移玩成活字印刷|NeurIPS 2022Neural Eigenmap: 基于谱学习的结构化表示学习NeurIPS 2022 | 基于对齐引导时间注意力机制的视频动作识别Hinton最新研究:神经网络的未来是前向-前向算法|NeurIPS 2022特邀演讲NeurIPS 2022 | 何恺明团队新作:MAE扩展到视频!学习时空表示,最优Mask比例高达90%!NeurIPS 2022 | 利用多光照信息的单视角NeRF算法S^3-NeRF,可恢复场景几何与材质信息NeurIPS 2022 | 仅用256KB就实现单片机上的神经网络训练Seq2Seq、SeqGAN、Transformer…你都掌握了吗?一文总结文本生成必备经典模型(一)首次突破30FPS!天大、清华和卡迪夫联合提出基于单RGB相机的全新三维表示方法FOF|NeurIPS 2022糊里糊涂到终点。。。NeurIPS 2022 | 基于精确差异学习的图自监督学习NeurIPS 2022 | 将通信带宽降低至十万分之一,上海交大提出新一代协作感知方法NeurIPS 2022 | 一种基于毒性样本敏感性的有效后门防御!NeurIPS 2022 | DetCLIP:开放域检测新方法,推理效率提升20倍!NeurIPS 2022 | 基于最优子集的神经集合函数学习方法EquiVSetNeurIPS 2022 Oral | 离线强化学习新范式!京东科技&清华提出解耦式学习算法从理论走向实用!马毅教授NeurIPS 2022新作:稀疏卷积性能和稳健性超越ResNetNeurIPS 2022 | PointTAD: 基于稀疏点表示的多类别时序动作检测框架NeurlPS 2022 | 全新大模型参数高效微调方法:仅需训练0.3M的参数在美国240.到处玩女人,甚至耍流氓安子NeurIPS 2022 | 基于解耦因果子结构学习的去偏差图神经网络秋天的仪式NeurlPS 2022 | 全新大模型参数高效微调方法SSF:仅需训练0.3M的参数,效果卓越NeurIPS 2022 | 重振PointNet++雄风!PointNeXt:改进模型训练和缩放策略审视PointNet++NeurIPS 2022 | 开放域检测新方法DetCLIP,推理效率提升20倍将通信带宽降低至十万分之一,NeurIPS 2022论文提出新一代协作感知方法毛泽东创建军队是为应战和防御「稀疏编码」从理论走向实用!马毅教授NeurIPS 2022新作:稀疏卷积性能和稳健性超越ResNet业界首个适用于固体系统的神经网络波函数,登上Nature子刊NeurIPS 2022 | 基于结构聚类的异质图自监督学习NeurIPS 2022 | ​NAS-Bench-Graph: 图神经网络架构搜索Benchmark
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。