Redian新闻
>
Neural Eigenmap: 基于谱学习的结构化表示学习

Neural Eigenmap: 基于谱学习的结构化表示学习

公众号新闻

©作者 | 邓志杰

单位 | 上海交通大学助理教授


我们在 Neural Eigenmaps paper 中 revisit 了表示学习的 eigenmap 原则。


论文标题:
Neural Eigenfunctions Are Structured Representation Learners

论文链接:

https://arxiv.org/pdf/2210.12637.pdf

代码链接:

https://github.com/thudzj/NEigenmaps

我们从理论上为包括但不限于 Barlow Twins 等方法提供了谱学习角度的解释以及修正,实验结果很有竞争力:








表示学习的eigenmap原则


Eigenmaps 是特征函数(eigenfunctions)的输出。Eigenmaps 和表示学习的密切关联可以回溯到 spectral clustering [Shi & Malik, 2000] 和 Laplacian Eigenmaps [Belkin & Niyogi, 2003]:


▲ Laplacian Eigenmaps


这些方法基于图邻接矩阵(graph adjacency matrix)定义一个核,计算其主特征函数,并以其输出作为节点的表示,完成后续的聚类等任务。上述 Eigenmaps 是谱学习中的核心概念,也被证明是能够维持数据流形上的局部邻域结构的最优表示。




自监督设定下的核函数


自监督学习中,我们训练神经网络最大化同一数据的不同扰动版本在输出空间的相似度。


▲ 自监督学习最大化输出空间中同一样本的不同扰动间的相似度


Johnson et al. [2022] 证明,这种学习方式隐式地设定了一个参数化的核函数,其会收敛到半正定的对比核函数(contrastive kernel),定义如下



其中, 表示原始干净数据的分布, 表示随机扰动对应的分布。这个核函数的定义也和 HaoChen et al. [2021] 的群体增广图(population augmentation graph)有密切关联。直观上, 能够反映两个增广数据点来源于同一个原始样本的概率,因此可以反映它们之间的语义接近程度或内在相似性。



用神经网络近似核的主特征函数


Spectral clustering 和 Laplacian Eigenmaps 是非参的,依赖于求解一个矩阵特征值问题得到 eigenmaps,不能拓展到大规模训练数据上,也不能高效地执行样本外泛化。我们开发了参数化的方法来解决此问题:用神经网络作为函数逼近器来近似核函数的主特征函数。


虽然这个想法很简单,直到最近这件事才变得高效可行——首先是 Pfau et al. [2018] 的 SpIN,然后是我们的 ICML paper NeuralEF。NeuralEF 以比 SpIN 更简单的方式,保证 k 个主特征函数间的正交性,也避免了对雅可比矩阵的存储更新。它通过同时解 k 个非对称的优化问题来训练深度网络逼近 k 个主特征函数。在新的 paper,我们进一步推广了 NeuralEF 以允许权重共享和处理非正定核函数。




Neural Eigenmaps


定义一个 k 输出的神经网络作为 k 个主特征函数的逼近器,将对比核函数 带入上述非对称优化问题,即可得到一个新的、有理论保证的表示学习范式——Neural Eigenmaps。和自监督学习的常见方法例如 Barlow Twins 的直观对比如下:

▲ 现有自监督学习方法和Neural Eigenmaps的对比(具体loss的推导请参见我们的paper)


基于特定的 breaking-symmetry 手段(stop gradient 和仅优化上三角部分),Neural Eigenmaps 中神经网络的输出是结构化的,会逐元素收敛到核的 k 个主特征函数。


从这个意义上讲,Neural Eigenmaps 中元素的位置(index)是可以反映出其重要性程度的index 更小的元素收敛到更主要的特征函数,所以包含更多来自原核函数的信息,因此更加重要。基于这样的结构,我们可以很灵活的在下游任务中通过对表示进行 truncation 实现 cost-quality tradeoff。


我们在迁移性的图像检索这个任务中验证了我们学得的表示中的这种结构:



相比于现有方法,Neural Eigenmaps可以实现在不显著降低检索性能的情况下,减少至多94%的表示长度,这对于资源有限的应用场景十分重要。




最后


如果大家对 Neural Eigenmaps 感兴趣,欢迎试用我们的代码(目前开源还做的不是很好,欢迎感兴趣的同学参与进来,我的邮箱是 zhijied@sjtu[dot]edu[dot]cn)。


目前 Neural Eigenmaps 已被应用在自监督学习,图节点表示学习和谱聚类上,我们相信还有更多有想象力的应用场景值得探索。



更多阅读



#投 稿 通 道#

 让你的文字被更多人看到 



如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。


总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 


PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。


📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算


📬 投稿通道:

• 投稿邮箱:[email protected] 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿


△长按添加PaperWeekly小编



🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧


·

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
Uni-Mol:分子3D表示学习框架和预训练模型项目原作解读最新综述:基于语言模型提示学习的推理NeurIPS 2022 | 重振PointNet++雄风!PointNeXt:改进模型训练和缩放策略审视PointNet++Little tips for writing College Essay & Essay (Alex)NeurIPS 2022 Oral | 基于最优子集的神经集合函数学习方法EquiVSetNeurIPS 2022 | 基于解耦因果子结构学习的去偏差图神经网络NeurIPS 2022 | PointTAD: 基于稀疏点表示的多类别时序动作检测框架NeurIPS 2022|图对比学习的结构公平性初探结构生物学没失业!深度评估AlphaFold 2:「蛋白质功能预测」水平不足|NeurIPS 2022英特尔4nm、3nm、1.8nm时间表更新首次突破30FPS!天大、清华和卡迪夫联合提出基于单RGB相机的全新三维表示方法FOF|NeurIPS 2022NeurIPS 2022 | 何恺明团队新作:MAE扩展到视频!学习时空表示,最优Mask比例高达90%![梅玺阁菜话]No. 094 面和浇头系列之十八 葱油拌面(视频)附葱油视频NeurIPS 2022 | 基于最优子集的神经集合函数学习方法EquiVSetNeurIPS 2022 | 面向图数据分布外泛化的因果表示学习NeurIPS 2022 | 基于精确差异学习的图自监督学习一座华丽的教堂、一本厚重的历史书台积电更多计划曝光:3nm、2nm和1nm创业荐书 · 《麦肯锡结构化战略思维:如何想清楚、说明白、做到位》北京量子院超快光谱学团队招聘助理研究员1名bāo huā shēng?bō huā shēng?平价买到高级感!IKEA全新 OBEGRÄNSAD系列,全系列都好看!成人级的爱情是什么样的?最深入人心的,是结构化表达NeurIPS 2022 | 基于结构聚类的异质图自监督学习医药生物行业周报:新冠特效药陆续获批,三大因素支撑2023年结构化医药牛市【东吴医药朱国广团队】学会结构化表达,成为职场高手IKEA x OBEGRÄNSAD联名!宜家22年最受瞩目系列开售!金犀銀杏半轮球NeurIPS 2022 | 直面图的复杂性,港中文等提出面向图数据分布外泛化的因果表示学习积木式深度学习的正确玩法!新加坡国立大学发布全新迁移学习范式DeRy,把知识迁移玩成活字印刷|NeurIPS 2022NeurIPS22|改进何恺明 MAE!GreenMIM:整合Swin与MAE,训练速度大幅提升!西电 NeurIPS 2022 | 基于结构聚类的异质图自监督学习NeurIPS 2022|探明图对比学习的“游戏规则”:谱图理论视角6个方法,教你训练结构化思维
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。