adam优化器的优点,adam优化器全称
在众多机器学习和深度学习应用中,我们发现Adam是使用最多的优化程序。为什么会这样?
以下是TensorFlow优化器:
33559 www .张量flow.org/API _ guides/python/train
Keras还包括SGD、RMSprop、Adagrad、Adadelta、Adam等。
https://keras.io/optimizers/
请注意,除了常见的斜率下降,还有几个优化程序:Adadelta、Adagrad和RMSProp。这是什么?另外,如何选择?
我们展示了Sebastian Ruder在本文中常用的优化程序的比较。今天,我们来学习:
arxiv.org/pdf/1609.04747.pdf 3359号
本文将梳理:
梯度更新规则和各种算法的缺点。为了解决这个不足,提出了下一个算法。比较了几种算法中超参数的一般设定值。选择哪种算法?1.优化算法概述?首先,我们来看看斜坡下降BGD最常见的三种变形,SGD和MBGD。
三种形式的区别取决于计算目标函数的梯度需要多少数据。
这样,参数更新的准确性就关系到执行时间的权衡。
3358号
BGD使用整个训练集中的数据来计算相对于“成本函数”参数的梯度。
梯度更新规则:
由于这种方法是在一次更新中计算整个数据集的梯度,计算非常缓慢,而且很难满足大量数据集,因此无法通过添加新数据来实时更新模型。
for range(NB _ epochs):Params_grad=evaluate _ gradient)loss _ function,data,Params (params=params-params)首先计算梯度向量Params _ grad,并更新参数Params,梯度方向的学习率来确定。
批量梯度下降对于凸函数可以收敛到全局极小值,对于非凸函数可以收敛到局部极小值。
2 .随机梯度下降http://www.Sina.com/
BGD一次计算所有数据的斜率,而SGD每次更新时都会更新每个样本的斜率。
对于更大的数据集,可能会有类似的例子。这样,BGD在计算斜率时就会变得繁琐。
另一方面,由于SGD一次只更新一次,因此没有冗余,可以更快地添加样本。
for range(nb _ epochs):NP . random . shuffle(data)例如在data 3360 params _ grad=evaluate _ gradient)这意味着整个数据集是一个循环,其中每个样本都用参数更新。
缺点:
但由于SGD更新频繁,代价函数存在严重的振动。
BGD收敛于局部极小值,当然SGD的振动可能会跳到更好的局部极小值。
当我们稍微降低学习率时,SGD和BGD的收敛性是相同的。
3 .迷你批次梯度下降http://www.Sina.com/
MBGD通过使用小批量,即一次n个样本来计算,
这样可以减少参数更新的方差,使收敛更加稳定。
另一方面,可以充分利用深度学习库中高度优化的矩阵运算,进行更有效的梯度计算。
与SGD不同的是,它不是每1个周期作用于一个样本,而是一批n个样本。
for iinrange(nb _ epochs):NP . random . shuffle(data)for batching et _ batches(data,batch_size=50 ) : PP
Rn一般在50 ~ 256。
缺点:
然而,小批量梯度下降不能保证良好的收敛性,
如果学习率太小,收敛速度会很慢;如果太大,损失函数会在最小值处不断振荡甚至偏离。一种措施是先设定一个较大的学习率,当迭代之间的变化低于某个阈值时,再降低学习率。但是这个阈值的设置需要提前写好,所以不能适应数据集的特点。
此外,该方法在更新所有参数时应用相同的学习率。如果我们的数据是稀疏的,我们更喜欢以低频率更新特征。
另外,对于非凸函数,要避免陷入局部极小值或鞍点,因为鞍点周围的误差是一样的,各维的梯度都接近于0,所以SGD很容易陷入这里。
鞍点是:光滑函数鞍点邻域内的曲线、曲面或超曲面,它们都位于该点切线的不同侧。
比如这个二维图形就像一个马鞍:在x轴方向向上弯曲,在y轴方向向下弯曲,鞍点为(0,0)。
为了应对上述三个挑战,有以下算法。
[迎接挑战1]
4.在峡谷的情况下,动量SGD很容易被捕获,这意味着表面的一个方向比另一个方向更陡。此时SGD会振荡,长时间无法接近最小值:
梯度更新规则:
动量可以加速SGD,并通过增加 V _ T1来抑制振荡。
当我们把一个小球滚下山时,在没有阻力的情况下,它的动量会增加,但如果遇到阻力,它的速度就会降低。
增加这一项,可以提高梯度方向不变的维度的速度,减缓梯度方向变化的维度的更新速度,从而加快收敛,减少振荡。
超参数设定值:
一般的值在0.9左右。
缺点:
这种情况相当于球滚下山的时候是沿着斜坡盲目滚动的。如果它能有一些先知先觉,比如快要上坡的时候,它会知道需要减速,适应能力会更好。
5.内斯特罗夫加速梯度梯度更新规则:
如果用 V _ T1来近似将成为next的一个参数的值,那么梯度将不是在当前位置而是在未来位置计算的。
超参数设定值:
还是0.9左右。
效果比较:
这是一个蓝色的动量过程。它会先计算当前的梯度,然后在更新的累积梯度后会有一个大的跳跃。
NAG会对上一步的累积梯度(棕色向量)做一个大的跳跃,然后测量梯度做一个修正(红色向量)。这个预期更新可以防止我们走得太快。
唠叨可以让RNN在许多任务中表现得更好。
目前为止,我们可以在更新梯度时根据损失函数的梯度调整速度,加速SGD。
我们也希望不同的参数可以根据其重要性进行不同程度的更新。
[迎接挑战2]
6.Adagrad算法可以大幅度更新低频参数,小幅度更新高频参数。因此,它对于稀疏数据表现良好,提高了SGD的鲁棒性,例如,识别Youtube视频中的猫和训练手套词嵌入,因为它们都需要更多地更新低频特征。
梯度更新规则:
g是参数_i在时间t的梯度。
如果是普通SGD,那么_i在各时刻的梯度更新公式为:
但是这里的学习率也随着T和I而变化:
其中G_t为对角矩阵,(I,I)元素为时间t时参数_i的梯度平方和。
Adagrad的优点是减少了学习率的手动调整。
超参数设定值:
一般为0.01。
缺点:
它的缺点是分母会不断积累,这样学习率会缩小,最终变得很小。
7.Adadelta这个算法是Adagrad的改进,
与Adagrad相比,即用过去梯度平方的衰减平均值代替分母g,
这个分母相当于梯度的均方根(RMS ),因此可以缩写为RMS:
E的计算公式如下,时间t取决于前一时间的平均值和当前梯度:
梯度更新规则:
另外,学习率用RMS[]代替,这样我们甚至不需要预先设置学习率:
超参数设定值:
通常被设置为0.9,
7.RMSprop RMSprop是Geoff Hinton提出的一种自适应学习率方法。
RMSprop和Adadelta都是为了解决Adagrad学习速率急剧下降的问题而设计的,
梯度更新规则:
RMSprop与Adadelta的第一种形式相同:
超参数设定值:
Hinton建议将设置为0.9,学习率设置为0.001。
8.Adam这种算法是计算每个参数的自适应学习率的另一种方法。
除了像Adadelta和RMSprop一样存储过去梯度的平方vt的指数衰减平均值之外,过去梯度mt的指数衰减平均值也像动量一样被保存:
如果将mt和vt初始化为0向量,它们将偏向0,因此偏差得到修正。
通过在偏差校正后计算mt和vt来抵消这些偏差:
梯度更新规则:
超参数设定值:
建议 1=0.9, 2=0.999,=10e8
实践表明,Adam优于其他自适应学习方法。
2.效果对比?我们来看看几种算法在鞍点和等高线上的表现:
鞍点上的SGOptimization损失曲面等值线上的SGD Optimization从上面两种情况可以看出,Ada Grad,Ada Delta,RMS Prop找对了方向,几乎是快速向前推进,收敛速度相当快,而其他方法要么慢,要么走了很多弯路才找到。
从图中可以看出,自适应学习率方法,即Adagrad、Adadelta、RMSprop、Adam Adam,在这种情况下更加适用,具有更好的收敛性。
3.如何选择?如果数据稀疏,使用自适应方法,即Adagrad、Adadelta、RMSprop、Adam。
Rmsprop、ada delta和Adam在很多情况下都有类似的效果。
Adam在RMSprop的基础上增加了偏差修正和动量,
随着梯度变得稀疏,Adam会比RMSprop更好。
总的来说,亚当是最好的选择。
很多论文会用SGD,但是没有气势等。虽然SGD可以达到最小值,但是比其他算法耗时更长,可能会陷入鞍点。
如果需要更快的收敛,或者训练更深更复杂的神经网络,就需要使用自适应算法。
信息:
http://sebastian ruder . com/optimizing-gradient-descent/index . html # fn:24
http://www . redcedartech . com/pdf/Select _ Optimization _ method . pdf
https://stats . stack exchange . com/questions/55247/how-to-choose-the-right-optimization-algorithm
郑重声明:本文由网友发布,不代表盛行IT的观点,版权归原作者所有,仅为传播更多信息之目的,如有侵权请联系,我们将第一时间修改或删除,多谢。