关于机器学习:吴恩达机器学习多分类Multiclass-Classification10

38次阅读

共计 490 个字符,预计需要花费 2 分钟才能阅读完成。

Softmax 回归模型

1. 逻辑回归与 Softmax 回归,后果值的计算比拟

2. 逻辑回归与 Softmax 回归,代价函数(cost funciont)的比拟

损失函数
3. 神经网络中 Softmax 的输入
Softmax 和其余函数的区别是它可能一次性算出 a_1 到 a_10 的所有概率,而其余函数一次只能算一个 a_j

3. 数字的舍入谬误

通过应用上面的表达式来示意损失函数,它为 TensorFlow 提供了更多的灵活性,如何计算这个以及它是否要显式地计算 a.

这里给出了能够用于此操作的代码,它的作用就是:设置输入层,只应用线性激活函数,把激活函数以及穿插熵损失(cross entropy loss)都封装进了这里非凡的损失函数里,这就是 from_logits=True 在 TensorFlow 的作用,如果你想晓得 logits 是什么,它根本就是这个数字 z,TensorFlow 会把 z 作为两头值来计算,但它能够重新整理这些项,使计算更准确。能够让 TensorFlow 的数字舍入误差小一点。

更加准确
线性回归

逻辑回归
总结:把本在模型中的 softmax 激活函数放到 cost 函数中
目标:开展运算,让计算机自行优化,进步精度

正文完
 0