1.梯度降落

回忆一下,梯度降落算法利用了梯度计算:

每个迭代在上对所有执行同步更新,

·m是数据集中训练示例的数量
·是模型的预测,而是指标
·逻辑回归模型


()是sigmoid函数:

2.梯度降落的实现

梯度降落算法实现有两个局部:
·实现上述式(1)的循环。上面是gradient_descent,通常在选修课和实际实验室中提供给你。
·计算偏导数,如上式(2,3)。这是上面的compute_gradient_logistic。你们将被要求实现本周的实际试验