Redian新闻
>
ICLR 2023 | 漂移感知动态神经网络:基于贝叶斯理论的时间域泛化框架

ICLR 2023 | 漂移感知动态神经网络:基于贝叶斯理论的时间域泛化框架

公众号新闻


©作者 | 机器之心编辑部

来源 | 机器之心



在领域泛化 (Domain Generalization, DG) 任务中,当领域的分布随环境连续变化时,如何准确地捕捉该变化以及其对模型的影响是非常重要但也极富挑战的问题。为此,来自 Emory 大学的赵亮教授团队,提出了一种基于贝叶斯理论的时间域泛化框架 DRAIN,利用递归网络学习时间维度领域分布的漂移,同时通过动态神经网络以及图生成技术的结合最大化模型的表达能力,实现对未来未知领域上的模型泛化及预测。本工作已入选 ICLR 2023 Oral (Top 5% among accepted papers)。




论文标题:

Temporal Domain Generalization with Drift-Aware Dynamic Neural Networks

论文链接:

https://arxiv.org/abs/2205.10664




情景导入

领域泛化是近几年非常热门的研究方向,它研究的问题是从若干个具有不同数据分布的数据集 (领域) 中学习一个泛化能力强的模型,以便在未知 (Unseen) 的测试集上取得较好的效果。目前。大部分领域泛化的工作假设领域之间的边界 (boundary) 是明确的且模型泛化是离线的 (offline)。然而在现实世界中,领域之间的边界往往是未知且难以获取的,同时领域的分布是渐变的,从而领域之间存在概念漂移 (concept drift) 。


例如,当一家银行利用模型来预测一个人是否会成为「违约借款人」时,会考虑「年收入」、「职业类型」和「婚姻状况」等特征。由于社会随着时间不断演化,这些特征对于最终预测的影响也会相应地随时间而变化。


如图 1 所示,另一个例子是通过每年的推特 (Twitter) 数据来预测比如流感的爆发。推特数据每年都会不断发生变化,例如用户数量逐年上升,新的好友关系不断增加,主流用户的年龄分布不断变化等等,而这种数据分布随时间的不断变化将使得模型逐渐过时。


相应地,假设有一个理想的、始终保持最新的模型,那么模型参数应该相应地逐渐变化以对抗数据分布随时间变化的趋势,它还可以「预测」模型参数在任意 (不太远) 的未来时间点应该是什么样子。因此,我们需要时间域泛化的技术来解决上述问题。 


▲ 图1. 时间域泛化的说明性示例



存在的挑战

将领域索引 (domain index) 视为分类变量 (categorical variable) 的现有领域泛化方法一般不适用于时间域泛化问题,因为它们需要领域边界作为先验来学习从源域到目标域的映射。扩展现有的领域泛化方法来解决时间域泛化面临着以下挑战:

难以刻画数据分布的漂移及其对预测模型的影响对随时间变化的分布建模需要使模型对时间敏感 (time-sensitive) 。现有方法无论是直接将时间作为输入数据的特征,或是将模型参数仅仅视作随时间变化的函数,只要模型的动态和数据的动态没有被整体建模,这些方法就不能很好地将模型泛化到未来的数据。

在追踪模型动态时缺乏表达能力如今,深度学习的成功离不开大模型 (例如 Transformer),其中神经元和模型参数连接成为一个复杂的计算图,然而这也极大增加了时间域泛化问题中追踪模型动态的难度。一个具有强表达能力的模型动态刻画及预测需要将数据动态映射到模型动态,也就是模型参数诱导的计算图随时间变化的动态。

难以对模型性能给出理论上的保障虽然在独立同分布的假设下对机器学习问题有着丰富的理论分析,但类似理论难以推广到分布外 (Out-of-Distribution, OOD) 假设以及数据分布随时间变化的时间域泛化问题。因此,有必要加强关于不同时间域泛化模型的能力及关系的理论分析。



解决思路及贡献

基于上述挑战,我们提出了一种具有漂移感知的动态神经网络的时间域泛化框架 DRAIN (Drift-A ware DynamIc Neural Networks)

具体而言,我们提出了一个基于贝叶斯理论的通用框架,通过联合建模数据和模型动态之间的关系来处理时间域泛化问题。为了实现贝叶斯框架,利用了带有循环结构的图生成场景来编码和解码跨不同时间点 (timestamp) 的动态图结构 (dynamic graph-structured) 神经网络。

上述场景可以实现完全时间敏感 (fully time-sensitive) 的模型,同时允许端到端 (end2end) 的训练方式。该方法能够捕获模型参数和数据分布随时间的漂移,并且可以在没有未来数据的情况下预测未来的模型。

该研究的主要贡献可以概括为以下几点:

开发了一种全新的基于贝叶斯理论的自适应时间域泛化框架,可以按照端到端的方式进行训练。

创造性地将神经网络模型视为动态图,并利用图生成技术来实现完全时间敏感的模型。

提出使用序贯 (sequential) 模型自适应地学习时间漂移,并利用学习到的序贯模型来预测未来时域的模型状态。

我们对所提出方法在未来时域上的不确定性量化 (uncertainty quantification) 以及泛化误差 (generalization error) 进行了理论分析。

DRAIN 框架在多个公开真实世界数据集上显著超过了以往的领域泛化和领域适应方法,在时间域泛化任务上取得 SOTA。



问题描述
我们给出正式的时间域泛化 (temporal DG) 的问题定义。

首先,我们考虑的是当数据分布随时间变化的情景。训练时,给定任意 T 个时间点 我们有每个时间点观测到的源领域 其中 。这里 分别对应时间点 的样本输入特征、标签以及样本量, 表示时间点 的特征及标签空间。
训练好的模型将在未知的未来时刻 的领域 上进行测试。由于是领域泛化问题,因此训练过程中不允许出现任何未来领域 的信息,例如无标签数据。
时间域泛化进一步假设存在时间维度的概念漂移,即领域 的分布遵循某种时间维度的模式而变化。例如,如果我们考虑个人收入每年如何变化,我们会发现由于通货膨胀,平均收入通常每年以某种比率增加。房价、教育成本等随时间的变化也存在类似规律。
我们的目标是建立一个能够主动且自适应地捕捉概念漂移的模型。给定源领域 ,我们希望对每一个领域 学习一个映射 。这里 表示时刻 时的模型参数。最终,我们预测未来某未知领域 上的映射 对应的模型参数 。如上图 1 所示,由于数据分布的时间漂移(例如推特用户的年龄分布和推文数量逐年增加),预测模型应当随之演变(例如模型参数权重的大小逐年递减)。


技术方案

这里介绍我们如何解决上述三个挑战。

对于挑战 1,我们通过构建一个系统的贝叶斯概率框架来显式地 (explicitly) 描述领域间随时间的概念漂移,这也是该工作与现有 DG 方法的本质区别。

对于挑战 2,我们提出将具有随时间变化参数的神经网络建模为动态图,并实现可以通过图生成技术进行端到端训练的时间域泛化框架;我们通过在不同域上引入残差连接 (skip connection) 模块进一步提高所提出方法的泛化能力以及对遗忘的鲁棒性。

最后,对于挑战 3,我们探索了在具有挑战性的时间域泛化设定下模型性能的理论保证,并提供了所提出方法的理论分析,例如不确定性量化和泛化误差。

1. 时间漂移的概率学描述

想要在随时间变化的领域上进行领域泛化,我们需要获得给定时间间隔内的概念漂移。从概率学的角度来看,对每一个源领域 ,我们通过最大化条件概率 训练得到神经网络 。由于 概率随时间的演化, 也会不断随时间改变。我们的终极目标是基于所有源领域 来预测未来某未知领域上的模型参数 ,即 。通过全概率公式 (Law of Total Probability),我们知道:

这里 Ω 表示所有参数 ω_(1:T) 所在的空间。积分号里的第一项代表推理阶段 (inference phase),即如何通过所有源领域上的历史信息来推断未来时刻的模型参数;第二项代表训练阶段,即如何通过每一个源领域的数据来得到对应的每个时间点上的模型信息。进一步,通过概率链式法则 (chain rule of probability),上式当中的训练阶段可以被分解为


▲ 图2. DRAIN 总体框架示意图

这里,我们假设在任意时间点 ,模型参数 只和当前领域以及历史领域有关,即 ,同时,没有任何关于未来领域的信息。通过上式,复杂的训练过程被分解为 T-1 步,而每一步对应于如何利用当前领域数据及模型历史信息来学习当前时刻的模型参数,即:

2. 神经网路的动态图表示

由于数据分布随时间的变化,模型参数也需要不断更新来适应时间漂移。我们考虑通过动态图来建模神经网络,以求达到最大化表达能力。

直观上讲,一个神经网络 可以被表示为一个边加权图 ,其中节点 表示神经网络中的神经元,而边 则对应不同神经元中的连接。函数 表示边的权重,即神经网络的参数值。注意,这里关于边加权图的定义是非常广义 (general) 的,涵盖了浅层模型 (即 linear model) 以及常见的深度模型 (MLP、CNN、RNN、GNN) 。我们通过优化边加权图中边的权重来学习得到神经网络参数随时间漂移的变化。
该工作中,我们考虑神经网络的结构是已知且固定的,即 V,E 不变,而边的权重随时间变化。由此,可以得到 ,其中 只依赖时间 。这样,三元组 定义了一个带有动态边权重的时间图 (temporal graph) 。
3. 时间漂移的端到端学习

给定神经网络在历史领域上学习得到的历史状态 ,我们的目标是如何端到端地外插得到神经网络在新的领域上的参数状态 ,并且得到良好的预测性能。
事实上,考虑到我们将神经网络的参数变化 视作一个动态网络的演化,一个自然的方法即为通过模拟 随时间如何演化来学习得到该动态网络的隐分布 (latent distribution)。最终,我们从动态网络的隐分布中采样即可得到未来时间点神经网络参数的预测值
我们将学习 的隐分布刻画为一个基于循环结构的顺序学习过程。如上图 2 所示,在任意训练时刻 ,递归网络会基于历史信息 来生成
具体而言,我们考虑 LSTM 作为递归网络的实现,并用 来表示 LSTM unit,那么 时刻有两个输出:当前的记忆状态 (memory state) ,以及包含了历史信息的隐概率分布 ,而隐概率分布 使得我们能够利用一个图解码器 来生成得到动态网络当前时刻的参数状态
不同于现有的在单个域上训练和正则化神经网络的工作,在这里我们专注于直接搜索具有「良好结构」的网络分布。最后,采样得到的当前时刻神经网络参数 被图编码器 转化为 在下一时刻的输入。整个框架顺序地在每一个训练领域上优化,即基于当前领域训练集来生成 来最小化以下目标函数:
这里损失函数 由具体任务决定,比如回归任务的 MSE 或者分类任务的 cross-entropy。

4. 更少的遗忘和更好的泛化能力

在训练递归神经网络时,可能会遇到性能下降的问题。由于领域之间存在时间维度上复杂的相关性,该问题在时间域泛化中可能会更严重。而且,当源领域的数量很大的时候,我们发现还可能出现灾难性遗忘 (catastrophic forgetting) 的问题。为了减轻该问题对模型性能的影响,我们提出了通过残差连接技术来增强不同领域训练模型时的相关性。具体而言,


其中 λ 为超参,s 为滑动窗口 (sliding window) 的宽度。残差连接的使用能够使得新生成的模型参数 ω_s 包含部分历史领域的信息,而定长的滑动窗口能够保证至多线性的算法复杂度。



理论分析

我们从理论角度探讨了所提出框架 DRAIN 在时间域泛化问题上的优越性:(1) 更小的预测不确定性;(2) 更小的泛化误差。首先给出一些必要的定义以及假设:


接下来的定理 1 表明,通过学习潜在的时维度的概念漂移,DRAIN 能够在测试领域上取得更小的预测方差,即更小的不确定性:


下面的定理 2 表明,除了预测的方差,我们的方法 DRAIN 同样可以在测试领域上取得更小的泛化误差,即更高的泛化精度:




实验结果

为了验证算法效果,我们在 7 个带有时间漂移的数据集 (5 个分类、2 个回归) 上进行试验,并与多个 DA 和 DG 方法进行比较。实验结果可见下表 1,其中我们提出的框架 DRAIN 在几乎所有数据集均取得了最优的泛化性能。相较于 CDOT/CIDA/GI 等方法,DRAIN 通过递归网络从本质上解决概念漂移问题,从而能够以更强的表达能力来端到端地学习时间漂移。

进一步,我们在 2-Moons 数据集上对各个方法的决策边界 (decision boundary) 进行了可视化实验,从而更清晰地展现出 DRAIN 的性能提升。通过横向比较下图 3 (d) 和图 4 (a)-(f) 的右子图 (均为测试领域上的决策边界),我们发现 DRAIN 框架在未来领域上拥有最准确的决策边界,再一次验证所提出方法对概念漂移的捕捉能力以及时间维度的泛化能力。


对于所提出框架 DARIN,动态神经网络的层深是一个重要的参数,它控制着性能与计算成本的权衡。我们探索了所提出框架 DRAIN 性能对于所生成神经网络层深的敏感性分析,由下图 5 可见在 2-Moons 以及 Elec2 数据集曲线均呈现出倒 U 型。过浅的网络会缺乏表达能力,而过深的网络则会减弱泛化能力。


最后,我们同样进行了消融实验 (ablation study),来进一步探究不同模块 (module) 对于所提出框架 DRAIN 的贡献和影响。如下表 2 所示,每个模块都可以有效地促进整体框架的性能,通过递归模型对所有时间域的相关性进行建模可以提供相当大的性能增益。此外,删除顺序学习模型中的跳跃连接会使 DRAIN 难以捕获域之间的远程时间依赖性,因为在模型学习期间可能会忘记遥远的历史领域信息。





结论

我们通过提出基于动态神经网络的框架来解决时间域泛化问题,构建了一个贝叶斯框架来对概念漂移进行建模,并将神经网络视为一个动态图来捕捉随时间不断变化的趋势。我们提供了所提出框架的理论分析(例如预测的不确定性和泛化误差)以及广泛的实证结果,从而证明我们的方法与最先进的 DA 和 DG 方法相比的有效性和效率。


更多阅读



#投 稿 通 道#

 让你的文字被更多人看到 



如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。


总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 


PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。


📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算


📬 投稿通道:

• 投稿邮箱:[email protected] 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿


△长按添加PaperWeekly小编



🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧

·

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
退休 28-阴阳对话华为团队开发组合贝叶斯优化框架,进行抗体计算机设计AAAI 2023 | DropMessage: 统一图神经网络中的随机删除ICRA 2023 | CurveFormer:基于Transformer的3D车道线检测新网络业界首个适用于固体系统的神经网络波函数,登上Nature子刊ChatGPT的胜利,是概率论的胜利,也是贝叶斯定理的胜利ICLR 2023 | GeneFace:高可泛化高保真度的说话人视频合成12月26日缅怀教员毛润之转:2023 回国探亲(5)2022&2023 Subaru Outback 和 2023 Honda CRV Hybrid二选一WSDM 2023 | 学习蒸馏图神经网络ICLR 2023 | Specformer: 基于Transformer的集合到集合图谱滤波器ICLR 2022 | DBD:基于分割后门训练过程的后门防御方法国际要闻简报,轻松了解天下事(03ICLR 2023 | DIM-SLAM:首个实现神经隐式稠密重建的RGB-SLAM​ICLR 2023 | LightGCL: 简单且高效的图对比学习推荐系统我用ChatGPT写神经网络:一字不改,结果竟然很好用ICLR 2023 | 基于视觉语言预训练模型的医疗图像小样本学习及零样本推理性能研究ChatGPT写神经网络:一字不改,结果竟然很好用​ICLR 2023 | GReTo:以同异配关系重新审视动态时空图聚合ICLR 2023 | PatchTST: 基于Transformer的长时间序列预测我一直不明白的事情:为与你无关的人骄傲!NeurIPS 2022 | ​NAS-Bench-Graph: 图神经网络架构搜索Benchmark圣诞节的温暖故事。。。基于无标注网络驾驶视频,自动驾驶策略预训练新方法 | ICLR 2023ICLR 2023 | 高分论文!上海交大提出H2RBox:旋转目标检测新网络​AAAI 2023 | 利用脉冲神经网络扩展动态图表示学习10行代码搞定图Transformer,图神经网络框架DGL迎来1.0版本GNN如何建模时空信息?伦敦玛丽女王大学「时空图神经网络」综述,简明阐述时空图神经网络方法​ICLR 2023 | 基于知识图谱的多模态类比推理2023 春 祝姐妹们周末快乐!《时代周刊》年度人物微软提出自动化神经网络训练剪枝框架OTO,一站式获得高性能轻量化模型Flag Boot:基于范畴论的新一代极简开源微服务框架Eruope 2023ICLR 2023 | 微软提出自动化模型训练剪枝框架OTO,一站式获得轻量级架构ICLR 2023 | 3D UX-Net:超强的医学图像分割新网络​ICLR 2023 | 标识分支结点,提升图神经网络对环的计数能力ICLR 2023 | 阿里达摩院开源人脸检测新框架DamoFDICLR 2023 | 清华大学龙明盛组提出通用时间序列神经网络骨干—TimesNet
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。