1.梯度降落
回忆一下,梯度降落算法利用了梯度计算:
每个迭代在上对所有执行同步更新,
·m是数据集中训练示例的数量
·是模型的预测,而是指标
·逻辑回归模型
()是sigmoid函数:
2.梯度降落的实现
梯度降落算法实现有两个局部:
·实现上述式(1)的循环。上面是gradient_descent,通常在选修课和实际实验室中提供给你。
·计算偏导数,如上式(2,3)。这是上面的compute_gradient_logistic。你们将被要求实现本周的实际试验
回忆一下,梯度降落算法利用了梯度计算:
每个迭代在上对所有执行同步更新,
·m是数据集中训练示例的数量
·是模型的预测,而是指标
·逻辑回归模型
()是sigmoid函数:
梯度降落算法实现有两个局部:
·实现上述式(1)的循环。上面是gradient_descent,通常在选修课和实际实验室中提供给你。
·计算偏导数,如上式(2,3)。这是上面的compute_gradient_logistic。你们将被要求实现本周的实际试验