Softmax回归模型
1.逻辑回归与Softmax回归,后果值的计算比拟
2.逻辑回归与Softmax回归,代价函数(cost funciont)的比拟
损失函数
3.神经网络中Softmax的输入
Softmax和其余函数的区别是它可能一次性算出a_1到a_10的所有概率,而其余函数一次只能算一个a_j
3.数字的舍入谬误
通过应用上面的表达式来示意损失函数,它为TensorFlow提供了更多的灵活性,如何计算这个以及它是否要显式地计算a.
这里给出了能够用于此操作的代码,它的作用就是:设置输入层,只应用线性激活函数,把激活函数以及穿插熵损失(cross entropy loss)都封装进了这里非凡的损失函数里,这就是from_logits=True在TensorFlow的作用,如果你想晓得logits是什么,它根本就是这个数字z,TensorFlow会把z作为两头值来计算,但它能够重新整理这些项,使计算更准确。能够让TensorFlow的数字舍入误差小一点。
更加准确
线性回归
逻辑回归
总结:把本在模型中的softmax激活函数放到cost函数中
目标:开展运算,让计算机自行优化,进步精度