梯度下降优化算法综述
优化器
以下为笔者阅读pytorch源码和相关论文,整理出来的pytorch实现的常用优化器
Batch gradient descent
θ=θ−η⋅∇θJ(θ)
由于我们需要计算整个数据集的梯度来只执行一次更新,因此批处理梯度下降可能非常慢,并且对于不适合内存的数据集是难以处理的。批处理梯度下降也不允许我们在线更新我们的模型,即。有新的例子。在代码中,批处理梯度下降似乎是这样的:
for i in range(nb_epochs):
params_grad = evaluate_gradient(loss_function, data, params)
params = params - learning_rate * params_grad
对于预定义的时代数,我们首先计算整个数据集w.r.t.的损失函数的梯度向量params_grad我们的参数向量参数。请注意,最先进的深度学习库提供了自动分化,有效地计算梯度w.r.t.一些参数。如果你自己推导出梯度,那么梯度检查是一个好主意。
然后,我们沿着梯度的方向更新参数,学习率决定我们执行的更新有多大。保证了批梯度下降收敛于凸误差曲面的全局最小值,并收敛到非凸曲面的局部最小值。
SGD
www.cs.toronto.edu/%7Ehinton/a…
vt+1pt+1=μ∗vt+gt+1,=pt−lr∗vt+1,
vt+1pt+1=μ∗vt+lr∗gt+1,=pt−vt+1.
ASGD
dl.acm.org/citation.cf…
Adadelta
arxiv.org/abs/1212.57…
在本技术报告中,我们引入了一种仅基于一阶信息的新学习率方法,在MNIST和大规模语音识别数据集上显示了良好的效果。与SGD相比,该方法的计算开销很小,同时提供了每个维的学习率。尽管输入数据类型、隐藏单元数量、非线性和分布副本数量存在很大差异,但超参数不需要调整,这表明adadelta是一种鲁棒的学习率方法,可以应用于各种情况。
Adagrad
在线学习和随机优化的自适应次梯度方法
jmlr.org/papers/v12/…
我们提出了一个新的子梯度方法家族,动态地结合在早期迭代中观察到的数据的几何知识,以执行更多信息的基于梯度的学习。隐喻上,这种适应使我们能够以非常预测但很少看到的形式在干草堆中找到针。我们的范例源于在随机优化和在线学习方面的最新进展,这些进展使用近端函数来控制算法的梯度步骤。我们描述并分析了一种自适应修改近端函数的装置,它显著简化了学习速率的设置,并导致遗憾保证被证明与事后可以选择的最佳近端函数一样好。本文给出了针对具有常见和重要的正则化函数和域约束的经验风险最小化问题的几种有效算法。我们通过实验研究了我们的理论分析,并表明,自适应亚梯度方法优于最先进的,但非自适应的,亚梯度算法。
Adam
[1412.6980] Adam: A Method for Stochastic Optimization (arxiv.org)
我们介绍了一种基于低阶矩的自适应估计的基于一阶梯度的随机目标函数优化算法Adam。该方法易于实现,计算效率高,内存要求小,对梯度的对角线重新缩放不变,非常适合在数据和/或参数方面较大的问题。该方法也适用于非平稳目标和具有非常有噪声和/或稀疏梯度的问题。超参数有直观的解释,通常不需要什么调优。讨论了与亚当受到启发的相关算法的一些联系。我们还分析了算法的理论收敛性,并给出了与在线凸优化框架下的结果相似的遗憾界。实证结果表明,亚当在实践中效果较好,且优于其他随机优化方法。最后,我们讨论了基于无限范数的亚当的一个变体AdaMax。
input:γ (lr),β1,β2 (betas),θ0 (params),f(θ) (objective)λ (weight decay),amsgradinitialize:m0←0 ( first moment),v0←0 (second moment),v0max←0fort=1to…dogt←∇θft(θt−1)ifλ=0gt←gt+λθt−1mt←β1mt−1+(1−β1)gtvt←β2vt−1+(1−β2)gt2mt←mt/(1−β1t)vt←vt/(1−β2t)ifamsgradvtmax←max(vtmax,vt)θt←θt−1−γmt/(vtmax+ϵ)elseθt←θt−1−γmt/(vt+ϵ)returnθt
Adamax
我们介绍了一种简单且计算效率高的基于梯度的随机目标函数优化算法。我们的方法旨在针对具有大数据集和/或高维参数空间的机器学习问题。该方法结合了最近流行的两种优化方法的优点:AdaGrad处理稀疏梯度的能力和RMSProp处理非平稳目标的能力。该方法实现简单,内存少。实验证实了对凸问题中收敛率的分析。总的来说,我们发现Adam是鲁棒的,并且非常适合现场机器学习中广泛的非凸优化问题。
AdamW
arxiv.org/abs/1412.69…
arxiv.org/abs/1711.05…
openreview.net/forum?id=ry…
NAdam
openreview.net/forum?id=OM…
input:γt (lr),β1,β2 (betas),θ0 (params),f(θ) (objective)λ (weight decay),ψ (momentum decay)initialize:m0←0 ( first moment),v0←0 ( second moment)fort=1to…dogt←∇θft(θt−1)ifλ=0gt←gt+λθt−1μt←β1(1−210.96tψ)μt+1←β1(1−210.96(t+1)ψ)mt←β1mt−1+(1−β1)gtvt←β2vt−1+(1−β2)gt2mt←μt+1mt/(1−i=1∏t+1μi)+(1−μt)gt/(1−i=1∏tμi)vt←vt/(1−β2t)θt←θt−1−γmt/(vt+ϵ)returnθt
RAdam
arxiv.org/abs/1908.03…
SparseAdam
arxiv.org/abs/1412.69…
Rprop
反向传播
RMSprop
arxiv.org/pdf/1308.08…
input:α (alpha),γ (lr),θ0 (params),f(θ) (objective)λ (weight decay),μ (momentum),centeredinitialize:v0←0 (square average),b0←0 (buffer),g0ave←0fort=1to…dogt←∇θft(θt−1)ifλ=0gt←gt+λθt−1vt←αvt−1+(1−α)gt2vt~←vtifcenteredgtave←gt−1aveα+(1−α)gtvt~←vt~−(gtave)2ifμ>0bt←μbt−1+gt/(vt~+ϵ)θt←θt−1−γbtelseθt←θt−1−γgt/(vt~+ϵ)returnθt
参考文献
arxiv.org/pdf/1609.04…