乐趣区

关于机器学习:吴恩达机器学习逻辑回归的梯度下降07

1. 梯度降落

回忆一下,梯度降落算法利用了梯度计算:

每个迭代在上对所有𝑗执行同步更新,

· m 是数据集中训练示例的数量
· 是模型的预测, 而是指标
· 逻辑回归模型

𝑔(𝑧)是 sigmoid 函数:

2. 梯度降落的实现

梯度降落算法实现有两个局部:
·实现上述式 (1) 的循环。上面是 gradient_descent,通常在选修课和实际实验室中提供给你。
·计算偏导数,如上式(2,3)。这是上面的 compute_gradient_logistic。你们将被要求实现本周的实际试验

退出移动版