机器学习梯度下降

39次阅读

共计 1706 个字符,预计需要花费 5 分钟才能阅读完成。

作者 |Renu Khandelwal
编译 |VK
来源 |Medium

什么是梯度下降?

梯度下降法是一种减少成本函数的迭代机器学习优化算法,使我们的模型能够做出准确的预测。

成本函数 (C) 或损失函数度量模型的实际输出和预测输出之间的差异。成本函数是一个凸函数。

为什么我们需要梯度下降?

在神经网络中,我们的目标是训练模型具有最优的权值 (w) 来进行更好的预测。

我们用梯度下降法得到最优权值。

如何找到最优的权值?

这可以用一个经典的登山问题来最好地解释。

在登山问题中,我们想要到达一座山的最低点,而我们的能见度为零。

我们不知道我们是在山顶上,还是在山的中间,还是非常接近底部。

我们最好的选择是检查我们附近的地形,并确定我们需要从哪里下降到底部。我们需要迭代地做这件事,直到没有更多的下降空间,也就是我们到达底部的时候。

我们将在稍后的文章中讨论,如果我们觉得已经到达了底部(局部最小值点),但是还有另一个山的最低点(全局最小值点),我们可以做什么。

梯度下降法帮助我们从数学上解决了同样的问题。

我们将一个神经网络的所有权值随机初始化为一个接近于 0 但不是 0 的值。

我们计算梯度,∂c/∂ω,它是成本相对于权重的偏导数。

α 是学习率, 有助于对梯度下降法调整权重

我们需要同时更新所有神经元的权重

学习速率

学习率控制着我们应该在多大程度上根据损失梯度调整权重。学习速率是随机初始化的。

值越低,学习速度越慢,收敛到全局最小。

较高的学习率值不会使梯度下降收敛

由于我们的目标是最小化成本函数以找到最优的权值,所以我们使用不同的权值运行多个迭代,并计算成本以获得最小的成本,如下所示

这座山可能有两个不同的底部,用同样的方法,我们也可以得到成本和权重之间的局部和全局最小点。

全局最小是整个域的最小点,局部最小是一个次优点,在这里我们得到一个相对最小的点,但不是如下所示的全局最小点。

我们如何避免局部最小值,并始终尝试得到基于全局最小值的最优权值?

首先我们来了解一下梯度下降的不同类型

不同类型的梯度下降是

  • 批处理梯度下降
  • 随机梯度下降法
  • 小批量梯度下降

批处理梯度下降

在批量梯度中,我们使用整个数据集来计算梯度下降每次迭代的代价函数的梯度,然后更新权值。

由于我们使用整个数据集来计算梯度收敛速度较慢。

如果数据集很大,包含数百万或数十亿个数据点,那么它就需要大内存和并且是计算密集的。

批量梯度下降的优点
  • 权值和收敛速度的理论分析很容易理解
批量梯度下降的缺点
  • 对大型数据集的相同训练示例执行冗余计算
  • 可能是非常缓慢和棘手的大数据集可能不适合在内存

随机梯度下降法

在随机梯度下降法中,我们使用单个数据点或实例来计算梯度,并在每次迭代中更新权值。

我们首先需要将数据集的样本随机排列,这样我们就得到了一个完全随机的数据集。由于数据集是随机的,并且每个示例的权值都是可以更新的,所以权值和代价函数的更新将是到处乱跳的,如下所示

随机样本有助于得到全局的最小值,避免陷入局部的最小值。

对于非常大的数据集,学习要快得多,收敛也快得多。

随机梯度下降法的优点
  • 学习比批量梯度下降快得多
  • 当我们一次抽取一个训练样本进行计算时,冗余的计算被移除
  • 当我们一次抽取一个训练样本进行计算时,可以动态更新新数据样本的权重
随机梯度下降法的缺点
  • 随着权重的频繁更新,成本函数波动较大

小批量梯度下降

摘要小批量梯度法是一种随机梯度下降法,它不采用单一训练样本,而是采用小批量样本。

小批量梯度下降法应用广泛,收敛速度快,稳定性好。

批处理大小可以根据数据集的不同而有所不同。

当我们取一批不同的样本时,它减少了权值更新的方差噪声,有助于更快地获得更稳定的收敛。

小批量梯度下降的优点
  • 减少了参数更新的方差,从而达到稳定收敛的目的
  • 学习速度快
  • 有助于估计实际最小值的近似位置
小批量梯度下降的缺点
  • 每一个小批都要计算损失,因此所有小批都要累计总损失

原文链接:https://medium.com/@arshren/g…

欢迎关注磐创 AI 博客站:
http://panchuang.net/

sklearn 机器学习中文官方文档:
http://sklearn123.com/

欢迎关注磐创博客资源汇总站:
http://docs.panchuang.net/

正文完
 0