共计 513 个字符,预计需要花费 2 分钟才能阅读完成。
先验散布、后验散布、似然散布三个应该在一起,似然预计应该离开。
前三个一起呈现在贝叶斯公式,
$$P(\theta|X)=\frac{P(X|\theta)P(\theta)}{P(X)}$$
\(\theta\)是散布参数,\(X\)是所见数据,
\(P(\theta|X)\)是后验,即见过数据 \(X\)影响后的散布;
\(P(\theta)\)是先验,没受 \(X\)影响前的散布;
\(P(X|\theta)\)是似然,即在已知散布参数 \(\theta\)下,度量生成某个样本 / 事件的散布
===================================
而前面的 似然预计 ,是参数估计的 思维,是求参的思维。个别都是极大似然预计,也就是怎么扭转参数能力使得散布的后果更加合乎所观测的数据(或者说训练数据),而具体的办法有有:
- 贝叶斯预计,也就是上述的奢侈贝叶斯
(解析解的)极大似然预计,个别求解是:
求最大似然函数估计值的个别步骤:
(1)写出似然函数;
(2)对似然函数取对数,并整顿;
(3)求导数,令导数为 0,失去似然方程;
(4)解似然方程,失去的参数即为所求;- 冀望最大(EM)办法,即没方法求解析解的参数估计
- 以及很多深度学习加持的模型
正文完