Redian新闻
>
​ICLR 2023 | 分布外泛化(OOD)中的优化困境

​ICLR 2023 | 分布外泛化(OOD)中的优化困境

科技


随着深度学习模型的应用和推广,人们逐渐发现模型常常会利用数据中存在的虚假关联(Spurious correlation)来获得较高的训练表现。但由于这类关联在测试数据上往往并不成立,因此这类模型的测试表现往往不尽如人意 [1]。其本质是由于传统的机器学习目标经验损失风险最小化(Empirical Risk Minimization,ERM)假设了训练测试集的独立同分布特性,而在现实中该独立同分布假设成立的场景往往有限。
在很多现实场景中,训练数据的分布与测试数据分布通常表现出不一致性,即分布偏移(Distribution shifts),旨在提升模型在该类场景下性能的问题通常被称为分布外泛化(Out-of-Distribution Generalization OOD;或域泛化,Domain Generaliziation)问题。近年来,尽管围绕分布外泛化的研究取得了一定的进展和突破,但大量的证据表明,在严格的实验设置和真实世界的分别偏移下,现有的分布外泛化算法却常常难以超越传统的经验损失风险最小化 [2,3,4]
我们发现,这一现象与分布外泛化中的优化困境(Optimization Dilemma)不可谓毫无关系。现有工作往往关注于提出更好的优化目标来约束 ERM 的学习,却忽视了其新的优化目标对优化过程带来的影响,以及随之而来的在模型选择(Model Selction)上的挑战。

为此,我们从多目标优化(Multi-Objective Optimization,MOO)的角度重新回顾了分布外泛化的优化过程,揭示了其优化困境的成因,并为此提供了新的优化方案。论文已在 ICLR 2023 发表,并将在 ICLR 域泛化研讨会上作口头报告(oral presentation at ICLR DG Workshop)。本工作由香港中文大学、腾讯 AI Lab 以及香港浸会大学合作完成。

论文标题:

Pareto Invariant Risk Minimization: Towards Mitigating the Optimization Dilemma in Out-of-Distribution Generalization

论文链接:

https://openreview.net/forum?id=esFxSb_0pSL

项目代码:

https://github.com/LFhase/PAIR




分布外泛化中的优化困境

分布外泛化(或域泛化)旨在让模型从一个或多个来自具有不同分布的环境(Environment;或域,Domain)的数据集中学习到具有稳定预测能力的关系,以使得模型能够泛化到来自不同于训练分布之外的分布中。由于传统的 ERM 只关注学习数据中存在的相关性,并不区分其是否为虚假关联,因此 ERM 学到的模型往往难以做到良好的分布外泛化。

为了解决这一问题,现有工作通过设计不同的优化目标(OOD目标)对 ERM 的训练过程进行约束,使其能够学习到环境之间的不变性。通常,其优化形式可以表示为:

其中 为模型,而 以及 分别为 ERM 以及 OOD 目标的损失函数,两者通常以线性加权(Linear weighting scheme)的方式组合在一起。尽管这样的优化方式被广泛的采用并且取得了一定的成功,但在实际使用中往往会遇到困境,常常需要许多妥协。
1.1 优化目标的放缩
首先,许多现有工作提出的 OOD 目标 ,往往由于其优化形式过于复杂,需要放缩后才能使用。本文主要讨论最为经典的优化目标之一,IRM,即不变风险最小化(Invariant Risk Minimization)[5]。IRM 将网络 拆解成为特征提取器(featurizer) 以及分类器(classifier),旨在学习一个不变的特征表示 ,使得存在一个分类器 基于 可以达到各个训练环境的最优。
在一定的假设下, 可以提取得到相应的因果特征,达到分布外泛化。关于更多 IRM 的背景知识,大家可以参考林勇师兄写的非常详细的介绍 [6],此处我们不再赘述。

▲ 图1. IRM需要经过两次放缩到IRMv1才能在实践中使用.

如上图一所示,IRM 原始的优化形式是一个非凸非线性的双重优化问题(Bi-level optimization),由于其过于复杂,IRM 作者提出首先对 进行放缩,限制 为一个线性函数。在这样的情况下,一个常数 与线性 没有本质区别,因为 可以把 吸收,因此 IRM 作者直接令 为一个值为 1 的常数,当模型在各个环境中达到最优时,即在 时梯度为 0,由此得到 IRMS。
而因为 IRMS 仍然是一个双重优化问题,IRM 作者对其进一步放缩,将限制条件作为一个由权重 控制的正则项,并得到最终的实践中使用的 IRM 形式,即 IRMv1。

▲ 图2. IRMv1与IRM存在巨大的差异.

由于从 IRM 到 IRMv1 的多次放缩,使得 IRMv1 与 IRM 的表现存在巨大的差异[7]。图 2 展示了 [7] 中一个简单的线性回归的例子, 即 Rademacher distribution 以 的概率取 的概率取 。在该例子中, 随机取 -1 或者 1,输入 包含两组特征 以及 ,分别由 以及 控制其与 的关联。每个环境 保持不变,而 会发生变化。
当所有的环境中 时,IRMv1 常常可以识别出需要的不变特征(Invariant feature) 。而当 时,如图 2 左图所示,不同的颜色深浅表示不同的 ERM loss 值,椭圆则表示训练环境中 IRMv1 loss 为 0 的解。可以看到,两个椭圆的交点总共有四组解,尽管 是 IRM 期望的解,但因为 有着比 更小的 ERM loss,IRMv1 会选择 作为其解。
实际上,哪怕给予 IRMv1 无数的训练样本以及训练环境,IRMv1 依然无法求解得到所需要的 ,因其与 IRM 存在巨大的理论表现差异。
1.2 优化过程的矛盾
优化困境的另一方面则是公式(1)中,OOD 目标与 ERM 目标协同优化过程中的矛盾。直观上来说,ERM 关注学习数据中存在的相关性,而 OOD 优化目标则关注学习数据中存在的因果关联,这两个优化目标通常存在矛盾。

▲ 图3. OOD与ERM优化目标普遍存在矛盾.
我们测量了几种主流 ERM 与 OOD 优化目标产生的梯度的余弦相似度,如上图 3 中展示了优化过程初期 ERM 与 OOD 优化目标梯度余弦相似度的平均值,横轴表示使用的不同的 值。可以看出,ERM 与 OOD 优化目标普遍存在矛盾。优化目标的矛盾则会进一步导致一些潜在的具有良好 OOD 泛化能力的解无法通过公式(1)的线性加权方式到达 [8]

▲ 图4. OOD权重需要精细的调参.
此外,由于 ERM 与 OOD 优化目标矛盾的存在,公式(1)中权重 往往需要精细的调参才能获得一个不错的解。如上图4展示了在经典的 ColoredMNIST 数据集中 [5],主流的几类 OOD 优化目标对超参数设置较为敏感,当 过大时,OOD 优化目标会阻止学习所有的关联,而当 过小时,哪怕以潜在完美的 OOD 解作为初始化,OOD 优化目标也难以维持完美解。
1.3 模型选择的困境

因为 ERM 与 OOD 优化目标的矛盾,对 OOD 泛化中的模型选择也带来了额外的挑战 [2]。现有的解决方案通过指定验证集并根据验证集的模型表现来进行模型选择。其中,验证集既可以来自于一个和训练环境较为接近的分布,也可以来自于一个训练和测试环境之外的分布,亦可以来自于和测试环境较为接近的分布。

不同验证集的设定会对最终模型的表现带来很大的影响。往往,训练得到的模型会对接近训练分布的数据表现较好而对离训练分布较远的其他分布表现较差,如根据一个接近训练分布的验证集进行选择,往往会使得模型在分布外的测试集的表现较差,而如果根据一个远离训练分布的验证集进行模型选择,则会使得最终得到的模型在训练集上表现较差。



帕累托不变风险最小化

总的来说,分布外泛化中的优化困境一方面在于因优化目标过于复杂导致的放缩,另一方面在于 ERM 与 OOD 优化目标的矛盾带来优化过程难度的上升。特别地,上述的优化困境给分布外泛化提出了一个十分具有挑战性的问题:
如何处理 ERM 与 OOD 目标的优化困境并得到需要的 OOD 解?
2.1 帕累托视角下的优化困境
既然公式(1)中通过线性加权得到的单目标优化范式面临种种困境,那么很自然地,我们可以将公式(1)转换到多目标的视角:

在通过公式(2)理解优化困境之前,我们首先简单介绍一下多目标优化中的基本概念:

  • 对于一组优化目标 ,解 支配(Dominate)另一个解 ,当且仅当 在所有优化目标中都取得不弱于 的效果;
  • 帕累托最优解(Pareto optimal solution)指的是不被任何其他解支配的解的集合;

  • 帕累托最优解的像(即目标函数值)组成的边界则为帕累托前沿(Pareto front);

▲ 图5. IRMv1的帕累托前沿.
回顾我们先前 IRMv1 的例子,假设存在两个训练环境,并令其 ERM loss 分布为 ,则其多目标优化形式可以表示为如下形式:
首先,我们绘制出了关于 的帕累托前沿,如图 5 左图所示,其中红色部分为 的帕累托前沿,而 为所需的最优 OOD 解。可以看到, 并不在 的帕累托前沿上。换句话说,最小化任意线性组合的 都无法得到最优解。
进一步地,我们考虑 也参与进多目标优化中,但结合先前的例子可知, 也不在 组成的帕累托前沿上,因为 给支配了(两者 都为 0 但是 具有更小的 ERM loss)。
综上,我们可知,IRMv1 的失败主要是因为其多次放缩导致所需要的解离开了其帕累托前沿,因此无论使用何种精巧的优化方式都难以得到所需要的 OOD 解。
2.2 优化目标提升
为了解决上述问题,我们首先需要做的就是提升优化目标组合的 OOD 鲁棒性,使得所需要的 OOD 解至少落在对应优化目标组合的帕累托前沿上。为此,我们进一步考虑 IRM 分布外泛化能力的源来。
▲ 图6. 提升IRMv1的外推能力.

Bottou et al., 在解释 IRM 分布外泛化能力的时候,提出 IRM 的解既是各个训练环境分布中 ERM loss 内插(Interpolation)组合的驻点(Stationary point),也是外插(Extrapolation)的驻点 [10]。根据先前的 IRMv1 失败的例子,我们知道 IRMv1 所需要的放缩会削弱 IRM 的外推能力。

为了弥补放缩带来的缺陷,很自然地,我们提出引入 VREx 优化目标 [11] 来直接提升训练环境 ERM loss 一定外推区域的泛化能力,并最终得到一个更鲁棒的 OOD 优化目标组合 IRMX:


▲ 图7. IRMX有效提升了IRMv1的OOD能力.
如图 7 所示,理论上,我们证明了 IRMX 可以解决任意的 Two-bit Environment 问题 [7],包括 IRMv1 失败的例子。此外,我们在论文附录 C.2 提供了关于 VREx 缺陷的讨论,有兴趣的读者可以参考我们的论文。
2.3 优化过程提升
尽管 IRMX 可以解决优化困境中的优化目标鲁棒性偏弱的问题,但由于额外引入的优化目标,会导致 IRMX 的优化过程更加困难:
  • 首先,IRMX 的帕累托前沿会更加复杂,潜在的 OOD 解更容易位于帕累托前沿的非凸部分,而线性加权的组合方式是无法到达非凸部分的帕累托前沿的 [8]。因此,我们的优化方案需要能够到达所有潜在的帕累托最优解。幸运地是,多目标优化文献中存在丰富的工具如 MGDA 算法可以解决这一问题 [12]

  • 另外,由于额外的 OOD 优化目标引入,而不同的 OOD 优化目标会侧重于所需学习的不变特征的不同方面,因此可能存在更多帕累托最优解,而最终我们需要从多个帕累托最优解中做出选择。为此,我们需要引入额外的目标偏好(Preference),即 ,而最终得到的解需要尽可能满足目标偏好,即 。为此,我们提出 PAIR-o 优化方案,将优化过程分为两个阶段。在第一个阶段仅使用 ERM 目标对模型进行优化至接近帕累托前沿的位置,而后在第二个阶段基于 [13] 根据给定的偏好对优化过程进行再平衡。

总体而言,优化目标偏好的设置倾向于给 ERM 一个较小的值。我们在理论上论证了 PAIR-o 的收敛性以及对于偏好的鲁棒性。在实验中,我们发现只需要一个粗略的偏好设置,如在大部分实验中我们无需进行大量参数搜索,而只使用  的偏好设置即可以获得具有较强 OOD 泛化能力的解。

进一步地,上述对 ERM 以及 OOD 优化的权衡启发我们提出一种新的模型选择方案 PAIR-s。不同于现有 [2] 中讨论的根据指定验证集的 OOD 模型选择方案,我们考虑充分利用各个优化目标的归纳偏置(Inductive bias),简单地,选择一个能尽可能满足给定目标偏好的模型。实验中,我们发现考虑 ERM 和 OOD 优化权衡的模型选择方案可以充分缓解 OOD 泛化中模型选择的困境。

我们将整个解决方案统称为 PAIR,即帕累托不变风险最小化(Pareto Invariant Risk Minimization)。



实验与讨论

在实验中,我们使用了合成数据集,真实数据上的多种合成分布偏差,以及真实场景的分布外泛化数据集对 PAIR 进行充分的测试和验证。
3.1 因果不变性还原测试

首先,我们对 PAIR 解决 IRM 到 IRMv1 的目标表现差异还原能力进行测试。具体地,我们使用一个线性回归任务来测试 PAIR 对 IRM 定义的因果不变性的还原能力 [5,7]

定义1(因果不变性)对于一个给定的特征提取器 ,我们称 提取了因果不变的特征,如果对于任意两个环境 ,以及其对应的分布 ,我们有 其中   在环境 分布中提取的特征。

▲ 图8. 因果不变性还原测试.

整个任务的设置以及其结果如上图 8 所示。输入的特征包含横轴和纵轴的值,而目标只取决于横轴的值。给定两个高斯分布采样得到的训练,一个满足因果不变性的模型应该在两个训练环境重叠的横轴区域,即 ,能够正确识别其中的不变特征,即横轴值,进行预测,其预测结果形成的带应该在 垂直于横轴。
如上图所示,哪怕经过充分的调参,IRMv1,VREx 以及 IRMX 都无法还原因果不变性。而经过 PAIR 加持后(IRMX+PAIR-o),模型可以充分还原所需要的因果不变性,以此尽可能弥补从 IRM 到 IRMv1 由于目标放缩导致的 OOD 泛化能力的削弱。
3.2 真实数据集上合成分布偏移下的表现

▲ 图9. DomainBed模型选择实验.

随后,我们也在 ColoredMNIST 的不同变体上进行了验证性实验。如图 9 所示,其中,CMNIST 对应着原始的 ColoredMNIST 设定,而 CMNIST-m 则对应先前讨论的 IRMv1 失败案例。我们测试了三种 PAIR-o 的变体,其主要原因是 PAIR-o 需要计算模型参数的梯度进行优化过程的再平衡,而实际应用中的模型往往会具有较大的参数,获取大模型的梯度往往需要消耗大量的计算开销。

为此,我们测试了采用模型不同部分梯度的 PAIR-o 表现。可以看到,IRMv1 如预期般在 CMNIST-m 中只取得与 ERM 相当的表现。尽管 VREx 在 CMNIST 以及 CMNIST-m 中表现良好,IRMX 表现却可能比 IRMv1 或者 VREx 更差。在使用 PAIR-o 后,IRMX 在 CMNIST 以及 CMNIST-m 上都取得了更好的表现。

有趣的是,PAIR-o 只使用最后一层分类器 的梯度能获得比使用特征提取器 或全部参数 更好的表现。因此,在后续真实世界数据集实验中,我们在 PAIR-o 中只使用分类器梯度进行优化过程的平衡。
3.3 真实世界分布偏移下的表现
进一步地,我们在真实世界测试基准 Wilds 的 6 个数据集中测试了 PAIR-o 的表现,在 DomainBed 的 3 个数据集中测试了 PAIR-s 用于各类主流 OOD 目标的模型选择实验。

▲ 图10. Wilds真实分布外泛化数据集实验.

如上图 10 所示,在真实世界数据集中,我们也可以观察到与图 9 类似的现象。尽管 IRMX 由于其相较于 IRMv1 或者 VREx 额外的优化难度导致性能的下降,通过 PAIR-o 加持后,其可以达到比 IRMv1 以及 VREx 更好的性能,并且达到 6 个真实世界数据集中综合性能第一。

▲ 图11. DomainBed模型选择实验.

此外,我们还在经典的 OOD 模型选择基准 DomainBed 上对 PAIR-s 进行测试。可以看到,对于几类主流的 OOD 优化目标,PAIR-s 选择得到的模型都能带来增益。尤其在虚假关联较为严重的 ColoredMNIST 上,简单地使用 PAIR-s 进行模型选择可以带来超过 10% 的性能增益,充分说明考虑 ERM 以及 OOD 优化权衡对于 OOD 泛化中模型的重要性。

我们还进行了大量的验证性实验对 PAIR 的效果进行探究,包括 PAIR 的优化过程,PAIR 对偏好的敏感性,PAIR 最终选择模型的好坏,以及 PAIR 用于更多的 OOD 目标的实验,欢迎感兴趣的读者参考我们论文的实验部分以及附录F。



总结及展望

本文从多目标优化的角度,讨论了分布外泛化中的优化困境,并提出了新的优化方案以及模型选择方案,为 OOD 时代的模型优化设计提供了新的思路。展望未来,基于 PAIR,我们可以探究自动化以及更精准的优化目标偏好学习,以及对多目标优化随机梯度噪声更鲁棒的优化器设计,优化过程的加速以及对于大模型来说更高效的优化方案。

参考文献

[1] CausalAdv: Adversarial Robustness through the Lens of Causality, ICLR 2022.
[2] In Search of Lost Domain Generalization, ICLR 2021.
[3] WILDS: A Benchmark of in-the-Wild Distribution Shifts, ICML 2021.
[4] GOOD: A Graph Out-of-Distribution Benchmark, NeurIPS 2022 D&B Track.
[5] Invariant Risk Minimization, arXiv 2020.
[6] https://zhuanlan.zhihu.com/p/567666715.
[7] Does Invariant Risk Minimization Capture Invariance? AISTATS 2020.
[8] Convex Optimization. Cambridge University Press, 2014.
[9] Rich Feature Construction for the Optimization-Generalization Dilemma, ICML 2022.
[10] Learning representations using causal invariance  https://leon.bottou.org/talks/invariances.
[11] Out-of-distribution generalization via risk extrapolation  (rex), ICML 2021.
[12] Multiple-gradient descent algorithm (mgda) for multiobjective optimization. Comptes Rendus Mathematique, 350(5):313–318, 2012.
[13] Multi-task learning with user preferences: Gradient descent with controlled ascent in pareto optimization, ICML 2020.


更多阅读



#投 稿 通 道#

 让你的文字被更多人看到 



如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。


总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 


PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。


📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算


📬 投稿通道:

• 投稿邮箱:[email protected] 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿


△长按添加PaperWeekly小编



🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧


·
·

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
聆听华尔街明星基金经理“木头姐”、方舟投资掌门人凯茜•伍德(Cathie Wood)就当前全球科技股投资策略!ACL 2023 | GLUE-X:基于分布外泛化的自然语言理解模型测试集CVPR 2023 Highlight丨GAM:可泛化的一阶平滑优化器ICLR 2023|节省95%训练开销,清华黄隆波团队提出强化学习专用稀疏训练框架总书记2022年3月1日在2022年春季学期中央党校(国家行政学院)中青年干部培训班开班式上讲话Greek resurrection soup-lamb offal soup The Raffle (1991)2022&2023 Subaru Outback 和 2023 Honda CRV Hybrid二选一论文插图也能自动生成了!用到了扩散模型,还被ICLR 2023接收!ICLR 2023 | 如何融合进化算法与强化学习打破性能瓶颈?OpenOOD v1.5:更全面、更精确的分布外检测代码库及测试平台40岁,真的 soooo damn good!纯爱小说: 风云赋 (16)风吹花落,片片留香OpenOOD更新v1.5:全面、精确的分布外检测代码库及测试平台,支持在线排行榜、一键测试ICLR 2023 | 大模型上下文学习的无限扩展方法:kNN Prompting谁造成了TikTok的商业化困局?Logitech G815 Lightsync RGB(one back foot missing)ICLR 2023 | Edgeformers: 基于Transformer架构的表征学习框架ICLR 2023 | DIFFormer: 扩散过程启发的Transformer​ICML 2023 | Unleashing Mask: 挖掘模型的分布外检测能力少子化困境,到底有没有解 | 8月新刊【幸运】ICLR 2023杰出论文奖得主分享:用于密集预测任务的通用小样本学习器​ICLR 2023 | 表达力 v.s. 泛化性:我们真的需要更强大的GNN吗?谁造成了Tiktok的商业化困局?【原创】再见,谷歌~ 2023 我的 Google裁员经历 (后续)中国尚未获批的“减肥针”:年轻人超适应症使用严重,院内紧缺院外泛滥ICLR 2023杰出论文奖得主分享:适配任意密集预测任务的通用小样本学习器学术为王时代,零假设AIGC技术破局创新药商业化困境※※ 2023.4.4ICLR 2023 Spotlight | Yoshua Bengio团队新作,生成拓展流网络CVPR 2023 | 清华大学提出GAM:可泛化的一阶平滑优化器【原创】再见,谷歌~ 2023 我的 Google裁员经历 (后续)ICLR 2023 | 负责任的人工智能,守护机器学习的进阶思考(古詩詞英譯) 長干曲四首 – 崔顥ICLR 2023 Oral | ToMe:无需训练的Token融合模型加速算法ICLR 2023邀你加入精选论文讲解直播间ICLR 2023|场景三维重建新SOTA!基于3D Transformer的单目场景重建炸裂!最新CVPR2023、ICML2023、AAAI2023、ACL2023论文+Code大合集!英国伦敦爱丁堡带孩子游记 Spring 2023
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。