Domain Generalization without Excess Empirical Risk 论文阅读

638 阅读10分钟

0.论文信息

文章概述

  这篇论文主要研究了域泛化问题 (Domain Generalization),即如何在训练集和测试集的分布不同的情况下,训练出具有良好泛化性能的模型。为了解决这个问题,作者提出了一种基于惩罚项 (Penalty) 的域泛化方法,并通过理论分析证明了该方法的有效性和收敛性。

  具体来说,作者首先对域泛化问题进行数学建模,并将其转化为一个优化问题。然后,作者提出了一种基于惩罚项的域泛化方法,并将其表述为一个联合优化问题。最后,作者通过理论分析证明了该方法可以保证收敛到局部最优解,并且在实验中取得了较好的效果。

  总之,这篇论文提出了一种新颖有效的域泛化方法,并通过理论分析和实验验证证明了其有效性。

1.相关工作

  相关工作这里我就不使用本文中的相关介绍了,而是使用王晋东老师 Generalizing to Unseen Domains: A Survey on Domain Generalization 中的相关介绍。

  王老师将领域泛化中的问题总共分为三大类 : 数据操作、表征学习、学习策略。

  • 数据操作 : 指的是通过对数据的增强和变化使训练数据得到增强。这一类包括数据增强和数据生成两大部分。
  • 表征学习 : 指的是学习领域不变特征 (Domain-invariant representation learning)以使得模型对不同领域都能进行很好地适配。领域不变特征学习方面主要包括四大部分:核方法、显式特征对齐、领域对抗训练、以及不变风险最小化 (Invariant Risk Minimiation, IRM)。特征解耦与领域不变特征学习的目标一致、但学习方法不一致,我们将其单独作为一大类进行介绍。
  • 学习策略 : 指的是将机器学习中成熟的学习模式引入多领域训练中使得模型泛化性更强。这一部分主要包括基于集成学习和元学习的方法。同时,我们还会介绍其他方法,例如自监督方法在领域泛化中的应用。

  而本文所想进行辅助解决的是表征学习对应的领域泛化方法 : 表征学习往往在 ERM loss 之外会增加更多的限定条件以使得学习更具有泛化性,而经典的操作就是进行 Lagrange 乘子法进行操作,即

{minLERM(θ;{x,y,e})minPenalty(θ;{x,y,e})minLERM(θ;{x,y,e})+Penalty(θ;{x,y,e})(1)\begin{cases} \min \mathcal{L}_{ERM}(\theta;\{x,y,e\})\\ \min \text{Penalty}(\theta;\{x,y,e\}) \end{cases}\rightarrow \min \mathcal{L}_{ERM}(\theta;\{x,y,e\})+\text{Penalty}(\theta;\{x,y,e\})\tag{1}

  其中 ERM loss LERM(θ;{x,y,e})1Mj=1M1Nji=1Njl(h(xji;θ),yji)\mathcal{L}_{ERM}(\theta;\{x,y,e\})\triangleq \frac{1}{M} \sum_{j=1}^M \frac{1}{N_j} \sum_{i=1}^{N_j} l\left(h\left(x_j^i ; \theta\right), y_j^i\right),其中 MM 为对应的域的数量。而本文所进行的研究就是对传统 Lagrange 乘子法求解的一种替代。

2.本文的方法

2.1 基本的定义与表示

X输入空间Y标签空间M域的数量π^={π1,,πM}不同的域的集合每个域中包含Nj个样本且 i.i.d.l(,)损失函数e域标签LERM(θ;{x,y,e})ERM 损失函数Penalty(θ;{x,y,e})惩罚项\begin{aligned} \mathcal{X}&\quad\text{输入空间}\\ \mathcal{Y}&\quad\text{标签空间}\\ M&\quad\text{域的数量}\\ \hat{\pi}=\{\pi_1,\ldots,\pi_M\}&\quad\text{不同的域的集合}\\ &\quad\text{每个域中包含} N_j \text{个样本且 i.i.d.}\\ l(\cdot,\cdot)&\quad\text{损失函数}\\ e&\quad\text{域标签}\\ \mathcal{L}_{ERM}(\theta;\{x,y,e\})&\quad\text{ERM 损失函数}\\ \text{Penalty}(\theta;\{x,y,e\})&\quad\text{惩罚项}\\ \end{aligned}

2.2 域泛化优化的目标

  考虑一个不可见的分布 π\pi_\star,其相应的总体风险可以使用以下直接分解来限制

Ex,yπ[l(h(x;θ),y)]Risk on Unseen Domains Ex,yπ^[l(h(x;θ),y)]Risk on Seen Domains +Ex,yπ[l(h(x;θ),y)]Ex,yπ^[l(h(x;θ),y)]Generalization Error (2)\underbrace{\mathbb{E}_{x, y \sim \pi_{\star}}[l(h(x ; \theta), y)]}_{\text {Risk on Unseen Domains }} \leqslant \underbrace{\mathbb{E}_{x, y \sim \hat{\pi}}[l(h(x ; \theta), y)]}_{\text {Risk on Seen Domains }}+\underbrace{\left|\mathbb{E}_{x, y \sim \pi_{\star}}[l(h(x ; \theta), y)]-\mathbb{E}_{x, y \sim \hat{\pi}}[l(h(x ; \theta), y)]\right|}_{\text {Generalization Error }} \tag{2}

  为了部分解决这个问题,作者提出了无超额风险约束。作者不是在经验风险最优性的约束下使经验风险和惩罚共同最小化,而是使惩罚最小化。更正式地说,作者考虑以下优化问题 :

minθ Penalty (θ;{xi,ei,yi})s.t.θargminθL(θ)(3)\begin{aligned} \min_\theta & \text { Penalty }\left(\theta ;\left\{x^i, e^i, y^i\right\}\right)\\ \text{s.t.} & \quad \theta \in \underset{\theta}{\arg \min } \mathcal{L}(\theta) \end{aligned} \tag{3}

  在后面的部分作者将讨论如何对于 Eq.(3) 进行转化。

2.3 将 ERM 的平稳性作为约束

  θargminθL(θ)\theta \in \underset{\theta}{\arg \min } \mathcal{L}(\theta) 的总体目标并不容易直接实现。由于考虑的损失函数族是非凸的,所期望的最好结果是收敛到一个平稳点。因此将 Eq.(3) 转换为

minθ Penalty (θ;{xi,ei,yi})s.t.θL(θ)ϵ(4)\begin{aligned} \min_\theta & \text { Penalty }\left(\theta ;\left\{x^i, e^i, y^i\right\}\right)\\ \text{s.t.} &\quad \left\|\nabla_\theta \mathcal{L}(\theta)\right\| \leqslant \epsilon \end{aligned}\tag{4}

  在解决 Eq.(4) 中的问题时,通过限制使用的迭代方法以与常用于训练深度神经网络的随机梯度下降 (SGD) 兼容。因此,作者希望有一个迭代过程 θt+1=θtηGt\theta^{t+1}=\theta^t-\eta G^t 来解决 Eq.(4) 的收敛问题。注意到当 GtG^t 是随机梯度时 (例如 E[Gt]=θL^(θ)\mathbb{E}\left[G^t\right]=\nabla_\theta \hat{\mathcal{L}}(\theta)),在温和的条件下,经验风险收敛到一个平稳点。然而,也需要使惩罚项最小化。因此,不仅需要允许不同于梯度的更新,同时仍需要保持结果的收敛性。


命题 2.1 使用 TT 步随机更新 θt+1=θtηGt\theta^{t+1}=\theta^t-\eta G^t。做出如下假设

  1. R(θ)\mathcal{R}(\theta) 是一个以 Δ\Delta 为界的非凸 L-Lipschitz,μ\mu-光滑函数
  2. 更新期望有界,E[Gt22]V\mathbb{E}\left[\left\|G^t\right\|_2^2\right] \leqslant V
  3. 更新的偏差逐渐减小,E[Gt]R(θt)2D/t\left\|\mathbb{E}\left[G^t\right]-\nabla \mathcal{R}\left(\theta^t\right)\right\|_2 \leqslant D / \sqrt{t},然后有
1Tt=1TE[R(θt)22]2(ΔμV+LD)1T\frac{1}{T} \sum_{t=1}^T \mathbb{E}\left[\left\|\nabla \mathcal{R}\left(\theta^t\right)\right\|_2^2\right] \leqslant 2(\sqrt{\Delta \mu V}+L D) \sqrt{\frac{1}{T}}

  在这个命题中,假设风险函数是非凸的、L-Lipschitz 的和 μ\mu-光滑的,并且随机更新是有界的。这些都是标准假设,对于常见的深度学习架构选择是有效的。最后,第三个假设是偏差以 1t\frac{1}{\sqrt{t}} 的速率下降,作者在求解器中明确地处理了它,将在下面进行讨论。

命题 2.1 的证明

  考虑将随机更新 θt+1=θtηGt\theta^{t+1}=\theta^t-\eta G^t 应用于函数 R(θ)\mathcal{R}(\theta)。利用函数 R\mathcal{R}μ\mu-平滑度,

R(θt+1)=R(θtηGt)R(θt)ηR(θt)Gt+μη22Gt22(7)\begin{aligned} \mathcal{R}\left(\theta^{t+1}\right) =&\mathcal{R}\left(\theta^t-\eta G^t\right) \leqslant &\\ &\mathcal{R}\left(\theta^t\right)-\eta \nabla \mathcal{R}\left(\theta^t\right)^{\top} G^t+\frac{\mu \eta^2}{2}\left\|G^t\right\|_2^2 \end{aligned}\tag{7}

  取不等式的期望,并利用 E[Gt22]V\mathbb{E}[\lVert G^t\rVert_2^2]\leqslant V

E[R(θt+1)]E[R(θt)]ηE[R(θt)22]ηE[R(θt)(GtR(θt))]+μη2V2(8)\begin{gathered} \mathbb{E}\left[\mathcal{R}\left(\theta^{t+1}\right)\right] \leqslant \mathbb{E}\left[\mathcal{R}\left(\theta^t\right)\right]-\eta \mathbb{E}\left[\left\|\nabla \mathcal{R}\left(\theta^t\right)\right\|_2^2\right]-\\ \eta \mathbb{E}\left[\nabla \mathcal{R}\left(\theta^t\right)^{\top}\left(G^t-\nabla \mathcal{R}\left(\theta^t\right)\right)\right]+\frac{\mu \eta^2 V}{2} \end{gathered}\tag{8}

  使用 R\mathcal{R} 的 Lipschitz-平滑度并对这些项重新排序,

ηE[R(θt)22]E[R(θt)]E[R(θt+1)]+μη2V2+ηLE[Gt]R(θt)2(9)\begin{gathered} \eta \mathbb{E}\left[\left\|\nabla \mathcal{R}\left(\theta^t\right)\right\|_2^2\right] \leqslant \mathbb{E}\left[\mathcal{R}\left(\theta^t\right)\right]-\mathbb{E}\left[\mathcal{R}\left(\theta^{t+1}\right)\right]+\\ \frac{\mu \eta^2 V}{2}+\eta L\left\|\mathbb{E}\left[G^t\right]-\nabla \mathcal{R}\left(\theta^t\right)\right\|_2 \end{gathered}\tag{9}

  从 t=1t = 1TT 求和然后除以 η\eta,我们得到

t=1TE[R(θt)22]2Δη+μηTV2+Lt=1TE[Gt]R(θt)2(10)\sum_{t=1}^T \mathbb{E}\left[\left\|\nabla \mathcal{R}\left(\theta^t\right)\right\|_2^2\right] \leqslant \frac{2 \Delta}{\eta}+\frac{\mu \eta T V}{2}+L \sum_{t=1}^T\left\|\mathbb{E}\left[G^t\right]-\nabla \mathcal{R}\left(\theta^t\right)\right\|_2\tag{10}

  利用扭曲有界为 Dt=E[Gt]R(θt)2DtD^t=\lVert\mathbb{E}[G^t]-\nabla\mathcal{R}(\theta^t)\rVert_2\leqslant\frac{D}{\sqrt{t}},我们可以用 2DT2D\sqrt{T} 将总和 t=1TDt\sum_{t=1}^TD^t 绑定。通过求解最优 η\eta

η=2ΔμTV(11)\eta=2\sqrt{\frac{\Delta}{\mu TV}}\tag{11}

  最终约束转化为

t=1TE[R(θt)22]2Δη+μηTV2+Lt=1TE[Gt]R(θt)2(12)\sum_{t=1}^T \mathbb{E}\left[\left\|\nabla \mathcal{R}\left(\theta^t\right)\right\|_2^2\right] \leqslant \frac{2 \Delta}{\eta}+\frac{\mu \eta T V}{2}+L \sum_{t=1}^T\left\|\mathbb{E}\left[G^t\right]-\nabla \mathcal{R}\left(\theta^t\right)\right\|_2\tag{12}

  我们把得到的步长代入边缘分布并除以 TT,得到 :

1Tt=1TE[R(θt)22]2(ΔμV+LD)1T(13)\frac{1}{T} \sum_{t=1}^T \mathbb{E}\left[\left\|\nabla \mathcal{R}\left(\theta^t\right)\right\|_2^2\right] \leq 2(\sqrt{\Delta \mu V}+L D) \sqrt{\frac{1}{T}}\tag{13}

  即为命题 2.1 所对应的结论。


  通过命题2.1,我们实现了满意迭代更新的定义。只要我们能将更新的差值与经验风险的梯度结合起来,就能保证收敛到一个平稳点。因此,我们的域泛化迭代方法从初始化 θ0\theta_0 开始,应用迭代 θt+1=θtηGt\theta^{t+1}=\theta^t-\eta G^t,其中 GtG^t 为以下优化问题的解 :

minp(Gt)EGt[ Penalty (θt+Gt;{xi,ei,yi})]s.t.EGt[GtθL(θ)2]Dt(5)\begin{aligned} \min_{p\left(G^t\right)} &\quad\mathbb{E}_{G^t}\left[\text { Penalty }\left(\theta^t+G^t ;\left\{x^i, e^i, y^i\right\}\right)\right] \\ \text{s.t.}& \quad \mathbb{E}_{G^t}\left[\left\|G^t-\nabla_\theta \mathcal{L}(\theta)\right\|_2\right] \leqslant \frac{D}{\sqrt{t}} \end{aligned}\tag{5}

  Eq.(5) 构造的约束保证了命题 2.1 中假设 (3) 的成立。因此,应用作为 Eq.(5) 的解的更新 GtG^t,可以令人满意地最小化经验风险 L(θ)\mathcal{L}(\theta)。同时,作者在这些令人满意的更新中寻求最小化惩罚的更新。由于提出的方法对经验风险使用满意更新,而不是一阶最优更新,遵循 Herbert Simon 对满意的描述,我们称之为满足域泛化 (satisficing Domain Generalization, SDG)。

2.4 理解满足域泛化 (Satisficing Domain Generalization, SDG)

  在本节中,作者利用率失真理论的工具,对提出的公式进行了观察。它将函数 R(D)R(D) 视为给定常数因子 DD 的 Eq.(5) 的解。问题 (5) 只是在更新的有限失真约束下最小化惩罚。这种形式与率失真函数非常相似,其中(压缩)速率通过解码中可接受的退化约束进行优化。如果惩罚是真实梯度和 GtG^t 之间的互信息,则它将完全等效。因此,我们可以进一步利用率失真理论的工具来更好地理解 Eq.(5)。

图 1. 惩罚-失真函数 R(D)R(D)DD 的非递增和凸函数,描述了一组可行的更新。我们对具有偏差的 SGD 的分析表明, E[GtRe(θt)2]Dt\mathbb{E}\left[\left\|G^t-\nabla \mathcal{R}_e\left(\theta^t\right)\right\|_2\right] \leqslant D^t 描述了最终最小化经验风险的更新集。最小化更新的代价可能远远超出解决 ERM 的范围。我们的公式选择了在最终解决 ERM 问题的同时最小化惩罚的更新。

  • 极端情况Dt=Dt=0D^t=\frac{D}{\sqrt{t}}=0 时,E[Gt]=L(θt)\mathbb{E}[G^t]=\nabla\mathcal{L}(\theta^t)。因此,在结束训练时,我们执行 ERM 更新。当失真无界 (Dt=D^t=\infty) 时,更新直接使惩罚最小化。此外,我们提出的公式在训练期间平滑地从最小化对 ERM 更新的惩罚的更新开始。

  • 改进的保证 R(D)R(D)DD 的非递增凸函数,故 R(0)R(Dt)R(0)\geqslant R(D^t)。换句话说,与 ERM 相比,SDG 优化减少了惩罚。

  • 几何图像 满足条件要求意味着平面上的某个对应结构,其中 xx 轴是失真,yy 轴是惩罚项。我们在图 1 中可视化了这种几何图形和解释我们的方法。

2.5 解决满足域泛化 (SDG)

  作者提出了一种数值算法来解决 Eq.(5)。我们首先提出了一种类似于 BlhutArimoto (BA) 的迭代方法,其复杂性难以处理。我们稍后会做出简化假设来设计易于处理的方法。

  作者使用梯度 (GtG^t) 和域 ID (EE) 之间的互信息来规范目标。这种正则化是合理的,因为希望梯度携带关于域 ID 的信息很少 (即提取域无关的深层信息)。我们解决的最终数值优化问题是

minp(Git)EGt[ Penalty (θt+Gt;{xi,ei,yi})]+γI(Gt;E)s.t.EGt[GtθL(θ)2]Dt(6)\begin{aligned} \min _{p\left(G_i^t\right)} \quad&\mathbb{E}_{G^t}\left[\text { Penalty }\left(\theta^t+G^t ;\left\{x^i, e^i, y^i\right\}\right)\right]+\gamma \mathcal{I}\left(G^t ; E\right) \\ & \text {s.t.} \quad \mathbb{E}_{G^t}\left[\left\|G^t-\nabla_\theta \mathcal{L}(\theta)\right\|_2\right] \leqslant \frac{D}{\sqrt{t}} \end{aligned}\tag{6}

  信息正则化不仅是可取的,而且至关重要,因为它使得能应用类似于 Blahut-Arimoto 的技术推导。

  为了解决 Eq.(6),我们只考虑 Gt{G1t,,GKt}G^t\in\{G_1^t,\ldots,G_K^t\};因此,我们只需要求解点质量 pGit=p(Gt=Git)p_{G^t_i}=p(G^t = G^t_i)。我们首先定义了以域 id 为条件的辅助变量 pGite=p(Gt=GitE=e)p_{G^t_i|e}= p(G^t=G^t_i|E=e)。通过这种分解,我们可以分别求解每个域条件概率 pGitep_{G^t_i|e},然后通过 pGit=1MepGitep_{G^t_i}=\frac{1}{M}\sum_e p_{G^t_i|e} 将它们边缘化。我们进一步用对域上均匀边界的约束更强的形式 EGtE=e[GtθL^e(θ)2]Dt\mathbb{E}_{G^{t}|E=e}[\lVert G^{t}-\nabla_{\theta}\hat{\mathcal{L}}^e(\theta)\rVert_2]\leqslant \frac{D}{\sqrt{t}} 来替换 EGt[GtθL^e(θ)2]Dt\mathbb{E}_{G^{t}}[\lVert G^{t}-\nabla_{\theta}\hat{\mathcal{L}}^e(\theta)\rVert_2]\leqslant \frac{D}{\sqrt{t}},并应用与 Blahut 和 Arimoto 类似的推导。


补充推导 推导 Blahut-Arimoto 风格方法求解 Eq.(6)

  我们提出了一种 Blahut-Arimoto 风格方法来解决以下问题

minp(Gt)EGt[ Penalty (θt+Gt;{xi,ei,yi})]+γI(Gt;E)s.t.EGt[GtθL^(θ)2]Dt(22)\begin{aligned} \min_{p\left(G^t\right)} \quad&\mathbb{E}_{G^t}\left[\text { Penalty }\left(\theta^t+G^t ;\left\{x^i, e^i, y^i\right\}\right)\right]+\gamma \mathcal{I}\left(G^t ; E\right) \\ & \text {s.t.} \quad \mathbb{E}_{G^t}\left[\left\|G^t-\nabla_\theta \hat{\mathcal{L}}(\theta)\right\|_2\right] \leqslant \frac{D}{\sqrt{t}} \end{aligned}\tag{22}

  在使用互信息的情况下,Eq.(22) 将转化为如下形式,其中 DKL\mathcal{D}_{KL} 表示 KL-散度。

minp(Gt)EGt[ Penalty (θt+Gt;{xi,ei,yi})]+γEE[DKL(p(GE)p(G))]s.t.EGt[GtθL^(θ)2]Dt(23)\begin{aligned} \min_{p\left(G^t\right)} \quad&\mathbb{E}_{G^t}\left[\text { Penalty }\left(\theta^t+G^t ;\left\{x^i, e^i, y^i\right\}\right)\right]+\\ &\gamma \mathbb{E}_E[\mathcal{D}_{KL}\left(p(G|E)||p(G)\right)] \\ & \text {s.t.} \quad \mathbb{E}_{G^t}\left[\left\|G^t-\nabla_\theta \hat{\mathcal{L}}(\theta)\right\|_2\right] \leqslant \frac{D}{\sqrt{t}} \end{aligned}\tag{23}

  Blahut-Arimoto 方法中使用的关键技术是将 p(Gt)p(G^t) 分解为 p(Gt)=ep(GtE=e)p(E=e)p(G^t)=\sum_ep(G^t|E=e)p(E=e)。令 d(Gt,e)=GtLe(θ)2d(G^t,e)=\lVert G^t−\nabla \mathcal{L}^e(\theta)\rVert_2,其中 Le\mathcal{L}^e 为域 ee 的损失,E|E| 为域的数量。此外,我们假设所有域的重要性都相同 p(E=e)=1Ep(E=e)=\frac{1}{|E|}。基于问题是离散的事实,Gt{G1,,GK}Gt\in\{G_1,\ldots,G^K\},Eq.(22) 中的问题可以转化为

minp(GkE=e)ek=1Kp(GkE=e)Penalty(θt+Gt;{xi,ei,yi})+γek=1Kp(GkE=e)logp(GkE=e)p(Gk)s.t.ek=1Kp(GkE=e)d(Gk,e)DEt\begin{aligned} \min_{p(G_k|E=e)}\quad&\sum_e\sum_{k=1}^Kp(G_k|E=e)\text{Penalty}\left(\theta^t+G^t ;\left\{x^i, e^i, y^i\right\}\right)+\\ \gamma&\sum_e\sum_{k=1}^Kp(G_k|E=e)\log\frac{p(G_k|E=e)}{p(G_k)}\\ \text{s.t.}\quad&\sum_e\sum_{k=1}^Kp(G_k|E=e)d(G_k,e)\leqslant\frac{D|E|}{\sqrt{t}}\\ \end{aligned}

  我们进一步用对域上均匀边界的约束更强的形式 EGtE=e[GtθL^e(θ)2]Dt\mathbb{E}_{G^{t}|E=e}[\lVert G^{t}-\nabla_{\theta}\hat{\mathcal{L}}^e(\theta)\rVert_2]\leqslant \frac{D}{\sqrt{t}} 来替换 EGt[GtθL^e(θ)2]Dt\mathbb{E}_{G^{t}}[\lVert G^{t}-\nabla_{\theta}\hat{\mathcal{L}}^e(\theta)\rVert_2]\leqslant \frac{D}{\sqrt{t}},然后进一步用拉格朗日乘子 β\beta 计算这个优化问题的拉格朗日量为

minp(GkE=e)maxβ0ek=1np(GkE=e)[ Penalty (θt+Gk;{xi,ei,yi})++γlogp(GkE=e)p(Gk)+βd(Gk,e)]βDEt(25)\begin{aligned} \min _{p\left(G_k \mid E=e\right)} \max _{\beta \geq 0}& \sum_e \sum_{k=1}^n p\left(G_k \mid E=e\right) {\left[\text { Penalty }\left(\theta^t+G_k ;\left\{x^i, e^i, y^i\right\}\right)+\right.} \\ & \left.\ldots+\gamma \frac{\log p\left(G_k \mid E=e\right)}{p\left(G_k\right)}+\beta d\left(G_k, e\right)\right]-\beta \frac{D|E|}{\sqrt{t}} \end{aligned}\tag{25}

  我们对 p(GkE=e)p\left(G_k \mid E=e\right) 取导数,并将其等同于 0。忽略常数因子,可以得到

p(GkE=e)p(Gk)exp[1γ(Penalty(θt+Gk;{xi,ei,yi})+βd(Gt,e)](26)\begin{gathered} p\left(G_k \mid E=e\right)\sim\\ p(G_k)\exp\left[-\frac{1}{\gamma}\left(\text{Penalty}(\theta^t+G_k;\{x^i,e^i,y^i\}\right)+\beta d(G^t,e)\right] \end{gathered}\tag{26}

  因为概率总和为 1,我们可以分别处理归一化因子。从初始化 p(GkE=e)p^{\circ}(G_k|E = e) 开始,除非存在先验信息,否则默认每个域是均匀分布的。然后,以下迭代求解 Eq.(22),

p^l+1(GkE=e)=pl(Gk)exp[1γ(Penalty(θt+Gk;{xi,ei,yi})+βd(Gt,e))]pl+1(GkE=e)=p^l+1(GkE=e)k^p^l+1(Gk^E=e)pl+1(Gk)=1EE=epl+1(GkE=e)\begin{aligned} \hat{p}^{l+1}(G_k|E=e)&=p^l(G_k)\exp\left[-\frac{1}{\gamma}\left(\text{Penalty}(\theta^t+G_k;\{x^i,e^i,y^i\})+\beta d(G^t,e)\right)\right]\\ p^{l+1}(G_k|E=e)&=\frac{\hat{p}^{l+1}(G_k|E=e)}{\sum_{\hat{k}}\hat{p}^{l+1}(G_{\hat{k}}|E=e)}\\ p^{l+1}(G_k)&=\frac{1}{|E|}\sum_{E=e}p^{l+1}(G_k|E=e) \end{aligned}

  这里 βt\beta^t 是一个与 DtD^t 成反比的参数,而其所得到的迭代形式即为 Eq.(6) 的一个迭代解。将这些更新应用于梯度空间是棘手的,因为 GtG^t 的空间是高维的。作者提出了两种简化来使 BA 的应用易于处理 :

  1. 独立地求解每个参数,以及
  2. 我们使用离散集 (Gt)p{(G1t)p=(L)p,(G2t)p=(L)p}(G^t)_p\in\{(G_1^t)_p=(\nabla\mathcal{L})_p,(G_2^t)_p=-(\nabla\mathcal{L})_p\} 来解决 BA 问题 (Gt)p(G^t)_p,即第 p 个参数的更新。

  为了了解所提出的简化,我们考虑了它们对架构其余部分的影响。我们将得到的估计梯度馈送到一阶数值优化器。以下是更多细节。


细节补充 应用 Blahut-Arimto Style Methods 进行基于惩罚项的深度域泛化

  在本节中,作者探讨了一种考虑任意惩罚函数的 CORAL+SDG 和 VREX+SDG 方法。为了将其应用于上述的推导,我们需要为任意 GkG^k 计算 Penaty(θt+Gk;{xi,ei,yi})\text{Penaty}(\theta^t+G_k;\{x^i,e^i,y^i\})。我们认为这个惩罚的一阶近似为

Penaty(θt+Gk;{xi,ei,yi})Penaty(θt;{xi,ei,yi})+θPenaty(θt;{xi,ei,yi})TGk\begin{gathered} \text{Penaty}(\theta^t+G_k;\{x^i,e^i,y^i\})\approx\\ \text{Penaty}(\theta^t;\{x^i,e^i,y^i\})+\nabla_{\theta}\text{Penaty}(\theta^t;\{x^i,e^i,y^i\})^TG_k \end{gathered}

  这种近似使得不需要为每个 GkG_k 执行额外的惩罚项计算,将其应用于上述的迭代,即为

p^l+1(GkE=e)=pl(Gk)exp[1γ(βd(Gt,e)+θPenaty(θt)TGk)]pl+1(GkE=e)=p^l+1(GkE=e)k^p^l+1(Gk^E=e)pl+1(Gk)=1EE=epl+1(GkE=e)\begin{aligned} \hat{p}^{l+1}(G_k|E=e)&=p^l(G_k)\exp\left[-\frac{1}{\gamma}\left(\beta d(G^t,e)+\nabla_{\theta}\text{Penaty}(\theta^t)^TG_k\right)\right]\\ p^{l+1}(G_k|E=e)&=\frac{\hat{p}^{l+1}(G_k|E=e)}{\sum_{\hat{k}}\hat{p}^{l+1}(G_{\hat{k}}|E=e)}\\ p^{l+1}(G_k)&=\frac{1}{|E|}\sum_{E=e}p^{l+1}(G_k|E=e) \end{aligned}

  从而得到算法 1

细节补充 将 Blahut-Arimoto Style 方法应用于 Fish

Fish 不使用直接惩罚函数;因此,应用 SDG 需要进行一些修改。为了将 SDG 应用于 Fish,我们简单地使用原始工作中提供的近似值。相关的工作表明,当 SGD 的内部更新应用于几个域的 θt\theta^t 时,得 近似于惩罚的梯度。因此,我们利用这一事实来执行迭代为

p^l+1(GkE=e)=pl(Gk)exp[1γ(βd(Gt,e)+(θ~tθ)TGk)]pl+1(GkE=e)=p^l+1(GkE=e)k^p^l+1(Gk^E=e)pl+1(Gk)=1EE=epl+1(GkE=e)\begin{aligned} \hat{p}^{l+1}(G_k|E=e)&=p^l(G_k)\exp\left[-\frac{1}{\gamma}\left(\beta d(G^t,e)+(\tilde{\theta}^t-\theta)^TG_k\right)\right]\\ p^{l+1}(G_k|E=e)&=\frac{\hat{p}^{l+1}(G_k|E=e)}{\sum_{\hat{k}}\hat{p}^{l+1}(G_{\hat{k}}|E=e)}\\ p^{l+1}(G_k)&=\frac{1}{|E|}\sum_{E=e}p^{l+1}(G_k|E=e) \end{aligned}

3.实验

  暂时略。

4.总结

  总的来说,作者的这种想法比起传统的 Lagrange 乘子法还是让我感到耳目一新的,但是可能受制于较为繁琐的迭代过程,并没有太多的引用和使用。

参考资料 (References)