去中心化在线凸优化算法实现突破

19 阅读3分钟

最优高效的去中心化在线凸优化算法

摘要

我们研究去中心化在线凸优化(D-OCO)问题,其中一组本地学习者需要仅通过本地计算和通信来最小化一系列全局损失函数。先前研究已分别为凸函数和强凸函数建立了O(n^{5/4}ρ^{-1/2}√T)和O(n^{3/2}ρ^{-1}log T)的遗憾界限,其中n是本地学习者数量,ρ<1是通信矩阵的谱间隙,T是时间范围。然而,这些结果与现有下界存在较大差距,即凸函数的Ω(n√T)和强凸函数的Ω(n)。为填补这些差距,本文首先开发了一种新颖的D-OCO算法,能够分别将凸函数和强凸函数的遗憾界限降低至Õ(nρ^{-1/4}√T)和Õ(nρ^{-1/2}log T)。主要技术是设计一种在线加速共识策略,使本地学习者之间实现更快的平均共识。此外,通过仔细利用特定网络拓扑的谱特性,我们将凸函数和强凸函数的下界分别提升至Ω(nρ^{-1/4}√T)和Ω(nρ^{-1/2}log T)。这些结果表明,对于凸函数和强凸函数,我们算法的遗憾在T、n和ρ方面近乎最优。最后,我们提出了算法的无投影变体,以有效处理具有复杂约束的实际应用。我们的分析表明,无投影变体能够分别以近乎最优的Õ(ρ^{-1/2}√T)和Õ(ρ^{-1/2}T^{1/3}(log T)^{2/3})通信轮数,为凸函数和强凸函数实现O(nT^{3/4})和O(nT^{2/3}(log T)^{1/3})的遗憾界限。

关键词

去中心化优化,在线学习,凸优化,遗憾分析,分布式算法

1. 引言

去中心化在线凸优化(D-OCO)是分布式学习和优化的重要框架,其中多个代理通过局部通信协作解决在线优化问题。与传统中心化设置不同,D-OCO要求每个代理仅基于本地信息和有限通信来做出决策。

2. 相关工作

现有D-OCO算法在遗憾界限上存在明显不足,特别是关于网络规模n和谱间隙ρ的依赖关系。本文旨在缩小理论界限与实际算法性能之间的差距。

3. 算法设计

3.1 在线加速共识策略

我们提出了一种新颖的在线加速共识策略,显著提高了本地学习者之间的平均共识速度。该策略通过优化通信模式减少了达成共识所需的轮数。

3.2 无投影变体

针对具有复杂约束的实际应用,我们开发了算法的无投影版本,避免了传统投影操作的高计算成本,同时保持了近乎最优的性能保证。

4. 理论分析

4.1 上界分析

我们证明了新算法在凸函数和强凸函数上的遗憾上界分别为Õ(nρ^{-1/4}√T)和Õ(nρ^{-1/2}log T),显著优于现有结果。

4.2 下界分析

通过利用特定网络拓扑的谱特性,我们建立了匹配的下界:Ω(nρ^{-1/4}√T)对于凸函数和Ω(nρ^{-1/2}log T)对于强凸函数,表明我们算法的近乎最优性。

5. 实验验证

理论结果得到了大量实验的支持,证实了新算法在各种网络拓扑和问题设置下的优越性能。

6. 结论

本文提出了近乎最优的高效算法解决D-OCO问题,通过创新的在线加速共识策略和精细的理论分析,显著推进了分布式在线优化的理论前沿。