Redian新闻
>
从4篇经典论文看扩散模型在图上的研究进展

从4篇经典论文看扩散模型在图上的研究进展

公众号新闻

©作者 | 邢宇杰
单位 | 北京邮电大学
来源 | 北邮 GAMMA Lab




前言
随着 Stable Diffusion 在 AI 绘图领域取得巨大成功,扩散模型(Diffusion Model)作为当下最强大的一类生成模型,引起了 AI 研究者广泛的兴趣。扩散模型最早可追溯到 ICML'15 的一篇论文《Deep Unsupervised Learning using Nonequilibrium Thermodynamics》。

在这篇论文中,作者首次将扩散模型定义为逐渐加噪的正向过程以及逐渐降噪的逆向过程,这样逆向过程就形成了一个从噪音到真实图像的映射,从而达到了生成模型学习原始数据分布的目的。

虽然改工作提出了一个新的生成模型方法,但当时并未在机器学习这一百家争鸣的领域溅起大的水花,直到 NeurlPS'20 的一篇文章《Denoising Diffusion Probabilistic Models》,也就是大家所熟知的 DDPM,通过对原始的扩散模型进行更加深入的一系列推导简化,并取得非常好的生成效果,才正式将这一方法带入到大家的视野中来。

与 DDPM 相对应的,NeurIPS'19 的论文《Generative Modeling by Estimating Gradients of the Data Distribution》,即 NCSN, 则是扩散模型另一条技术路线的开山之作,该方法提出一种名叫分数匹配(Score Matching)的方法,通过建模训练数据概率密度函数取对数之后的梯度,配以朗之万动力学采样(Langevin dynamics),同样在取得了非常好的生成效果。

进一步的,ICLR'21 的论文《Score-based Generative Modeling through Stochastic Differential Equations 》,通过随机微分方程,将分别以 DDPM 和 NCSN 为代表的两条技术路线统一起来,并将离散的扩散过程推广到连续扩散过程。至此,扩散模型的基础理论得以完善统一。


图上的扩散模型

图机器学习作为当今机器学习领域,人工智能领域的又一大热点,考虑到图生成模型对于解决分子发现,药物发现等领域有重要的现实意义,如何在复杂的图数据上运用强大的扩散模型成为了许多研究者的研究中心。接下来,我将对一些将扩散模型应用到图领域的重大成果进行介绍。

2.1 EDP-GNN

EDP-GNN 是发表在 AISTATS’20 上的一篇论文,其完整名称为《Permutation Invariant Graph Generation via Score-Based Generative Modeling》,这也是第一篇将扩散模型带入到图领域的工作。作为这一扩散图生成领域的开创之作,这篇文章并没有对如何定义图上的正向扩散过程以及逆向扩散过程进行深入的探索,只是沿用了 NCSN 的方法进行设计。

2.1.1 训练过程

作者通过对图的邻接矩阵添加高斯噪声来定义噪声分布。具体来说,对于某一个 噪声规模(对应的噪声为 ),作者将噪声分布 定义为:

可以看到,作者只考虑邻接矩阵的上三角部分,这是因为作者主要考虑的是无向图的生成。


过定义这样的噪声分布,可以简单求得该噪声分布的“分数”:。作者设计了一系列递减的 来定义这一正向扩散过程(加噪过程)。接着作者通过分数匹配损失函数:

就可以训练得到一个神经网络 来求解逆向扩散过程(降噪过程)。文中作者定义了一个新的图神经网络,但与本专题所探索的内容关系不大,故在此不过多赘述。

2.1.2 采样过程

在采样过程中,作者首先通过标准正态分布采样得到一个噪声邻接矩阵:

其中,。随后,搭配训练过程中训练得到的神经网络 使用朗之万动力学采样算法,就可通过迭代,一步步得到生成图。

注意,为了与无向图的对称邻接矩阵相对应,我们需要将添加的噪声矩阵也定义为一个对称矩阵,即:

同时,为了将连续的扩散空间与我们需要的离散图空间对齐,在最后一次迭代时,我们需要对齐进行离散化处理:

2.2 NVDiff

考虑到图生成任务,通常需要同时生成图拓扑结构以及节点特征,因此还需要考虑到这二者之间可能存在的联系,但这通常是复杂的。NVDiff 则通过将变分自编码器(VAE)和扩散模型(Diffusion Model)结合起来,巧妙解决这一问题。

2.2.1 模型架构

作者首先使用 VAE 的 Encoder 将原始图结构和节点特征编码到一个隐藏空间中,然后对该隐藏空间的表示进行正向扩散过程,获得一个噪声,再使用一个神经网络学习该扩散的逆向过程,使得可以将一个噪音映射到有意义的节点表示之中。将反向扩散过程得到的节点表示再输入到 VAE 的 Decoder 中,解码得到一个图结构和节点特征。

通过在隐藏空间中使用扩散模型,该方法既可以利用扩散模型强大的生成能力,同时也避免了如何在图数据上设计合适的正向扩散过程以及反向扩散过程的问题。

为了训练该模型,作者需要两个目标函数来分别优化 VAE 部分以及 Diffusion Model 部分:

整体训练过程由以下算法描述:

2.2.2 采样过程

为了采样生成图数据,需要首先采样一个噪声表示,然后用逆扩散过程的随机扩散方程求解出一个有意义的节点表示,然后使用 VAE 的 Decoder,根据该求解出的节点表示重构出图拓扑结构以及节点特征。

2.3 DIGRESS

DIGRESS 是发表在 ICLR 2023 的一篇论文,全名为《DIGRESS: DISCRETE DENOISING DIFFUSION FOR GRAPH GENERATION》。该工作不同于以往图扩散模型将图数据放到连续空间中的做法,在离散空间中设计了一种离散图扩散模型,这与图数据本身的离散性相吻合。

2.3.1 扩散过程

作者将正向扩散过程设计成一种离散的状态转移过程。首先作者将图数据定义为 以及 ,分别表示节点种类矩阵以及边种类矩阵。定义状态转移矩 则正向过程可用如下方程表示:

其中以及 


利用贝叶斯公式,正向扩散的后验概率可写为:

其中 表示转移矩阵 的转置矩阵。

训练过程中,需要一个降噪神经网络 ,以一个扩散 步后的噪声图为输入,去预测干净图。使用交叉熵损失函数作为优化目标即可:

其中 分别表示 预测的节点种类矩阵和边种类矩阵。

2.3.2 采样过程

在采样过程中,我们首先采样一个完全随机的图 ,然后使用训练得到的 预测一个干净图 ,再根据计算的后验概率 采样得到图 , 然后依次迭代生成最终的图。

2.4 EDGE

EDGE 是发表在ICML'23 的一篇论文,其全名为《Efficient and Degree-Guided Graph Generation via Discrete Diffusion Modeling》。该工作设计了一种高效的离散图扩散模型,并且可以通过指定节点度来实现度指导的图生成过程,取得了非常好的图生成效果。

2.4.1 扩散过程

作者将正向扩散过程定义为移除边的过程,使用一个简单的伯努利分布来定义边移除概率:

这里作者将每条的移除当作一个独立事件考虑。可以直接求得 时刻的邻接矩阵分布为:

中 通过贝叶斯公式,可以计算正向扩散的后验概率为:

将某个时间步中,度发生变化的节点定义为“激活节点”,并将“激活节点”显式加入到扩散过程中,则正向过程定义为:
注意,已知 事实上是唯一确定的。反向扩散过程可以定义为:

即先预测“激活节点”,再根据激活节点预测前一个时刻的图。
通过这样设计扩散过程,可以大大减少扩散所需的时间,同时只需在“激活节点”内部判断是否需要重构边即可。这使得该方法可以泛化到相对大规模的图中。优化目标如下:

2.4.2 采样过程
EDGE 采样如上图所示,首先采样一个只有 个节点没有边的图,然后通过训练得到的神经网络,首先预测哪些节点的”激活节点“,然后再根据上一时刻的图和”激活节点“去补全节点之间的边。更进一步,可以事先指定每个节点的度大小,再根据节点度去指导图的生成过程,具体可参照原文,此处不过多赘述。


总结
本文对图扩散模型中有代表性的四篇工作进行了简要的介绍。可以看到,图扩散模型的研究尚处于起步阶段,如何在图上定义一个好的扩散过程是当下图扩散模型的一个最主要的研究热点。事实上,图扩散模型的研究仍存在很多的困难与挑战,例如如何将扩散模型泛化到大图中仍是一个亟待解决的难题。与此同时,如何将图扩散模型真正应用到实际也是广大研究者需要思考的一个问题。



参考文献

[1] Deep Unsupervised Learning using Nonequilibrium Thermodynamics
[2] Denoising Diffusion Probabilistic Models
[3] Generative Modeling by Estimating Gradients of the Data Distribution
[4] Score-based Generative Modeling through Stochastic Differential Equations
[5] Permutation Invariant Graph Generation via Score-Based Generative Modeling
[6] NVDiff: Graph Generation through the Diffusion of Node Vectors
[7] DIGRESS: DISCRETE DENOISING DIFFUSION FOR GRAPH GENERATION
[8] Efficient and Degree-Guided Graph Generation via Discrete Diffusion Modeling



更多阅读



#投 稿 通 道#

 让你的文字被更多人看到 



如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。


总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 


PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。


📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算


📬 投稿通道:

• 投稿邮箱:[email protected] 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿


△长按添加PaperWeekly小编



🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧


·
·
·

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
《爱国之恋》&《从前说》大模型在开放智能体场景中能意识到风险威胁吗?上海交大发布R-Judge安全评测攻克图像「文本生成」难题,碾压同级扩散模型!两代TextDiffuser架构深度解析【STING研究2023】17%发在IF 12+ SCI期刊,衰老、神经病变、肿瘤均有进展;关键性研究进入到临床试验阶段前沿速递 | 雷替曲塞在肝癌HAIC中的研究进展生成扩散模型漫谈:中值定理加速ODE采样ICLR'24 大语言模型智能体最新研究进展TNF研究:2023年已发1.6万篇SCI论文,大数据找到这些可持续的研究策略重磅发布!2023年度中国半导体十大研究进展爱丁堡Wang教授-ESG投资与公司财务绩效关系的研究|收获一作论文与导师推荐信!扩散模型更懂复杂提示词!Pika北大斯坦福开源新框架,利用LLM提升理解力NeurIPS上新 | 从扩散模型、脑电表征,到AI for Science,微软亚洲研究院精选论文扩散模型图像理解力刷新SOTA!字节复旦团队提出全新「元提示」策略李强主持召开国务院常务会议 研究进一步优化营商环境有关工作等抛弃编码器-解码器架构,用扩散模型做边缘检测效果更好,国防科大提出DiffusionEdge扩散模型方向微信交流群成立!开班讲课系列:简单电工(1)何恺明谢赛宁团队步步解构扩散模型,最后竟成经典去噪自编码器大模型在金融领域找到“业技融合”的最佳路径了吗?挺看好的一个学妹也在学扩散模型!战争几乎让我失学,去以色列上藤校到底在图啥?GPT-4+物理引擎加持扩散模型,生成视频逼真、连贯、合理红色日记 右倾翻案 2.11-28图神经网络(GNN)经典论文与代码讲解课程!独家分享!大模型在保险行业的应用户型图上的这些标识,你看得懂吗AI视觉字谜爆火!梦露转180°秒变爱因斯坦,英伟达高级AI科学家:近期最酷的扩散模型|亮马桥小纪严选比特币重回 4 万美元;蔚来汽车拿下独立生产资质;GPT-3.5 在图灵测试中败给六十年前的AI | 极客早知道几行代码稳定UNet ! 中山大学等提出ScaleLong扩散模型:从质疑Scaling到成为Scaling手机上0.2秒出图、当前速度之最,谷歌打造超快扩散模型MobileDiffusionAAAI 2024 | 通用图扩散框架:建立不同图神经网络与扩散方程之间的关系人工智能≠机器“人”:激活基础模型在产业中的巨大应用潜力和商业价值6051 血壮山河 卢沟桥之变 20开班讲课系列:引言扩散模型图像理解力刷新SOTA!字节联合复旦团队提出全新「元提示」策略
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。