1. 梯度降落
回忆一下,梯度降落算法利用了梯度计算:
每个迭代在上对所有𝑗执行同步更新,
· m 是数据集中训练示例的数量
· 是模型的预测, 而是指标
· 逻辑回归模型
𝑔(𝑧)是 sigmoid 函数:
2. 梯度降落的实现
梯度降落算法实现有两个局部:
·实现上述式 (1) 的循环。上面是 gradient_descent,通常在选修课和实际实验室中提供给你。
·计算偏导数,如上式(2,3)。这是上面的 compute_gradient_logistic。你们将被要求实现本周的实际试验