乐趣区

关于人工智能:贝叶斯派-先验分布后验分布似然分布似然估计通俗解释

先验散布、后验散布、似然散布三个应该在一起,似然预计应该离开。

前三个一起呈现在贝叶斯公式,
$$P(\theta|X)=\frac{P(X|\theta)P(\theta)}{P(X)}$$

\(\theta\)是散布参数,\(X\)是所见数据,
\(P(\theta|X)\)是后验,即见过数据 \(X\)影响后的散布;
\(P(\theta)\)是先验,没受 \(X\)影响前的散布;
\(P(X|\theta)\)是似然,即在已知散布参数 \(\theta\)下,度量生成某个样本 / 事件的散布

===================================
而前面的 似然预计 ,是参数估计的 思维,是求参的思维。个别都是极大似然预计,也就是怎么扭转参数能力使得散布的后果更加合乎所观测的数据(或者说训练数据),而具体的办法有有:

  1. 贝叶斯预计,也就是上述的奢侈贝叶斯
  2. (解析解的)极大似然预计,个别求解是:

    求最大似然函数估计值的个别步骤:
    (1)写出似然函数;
    (2)对似然函数取对数,并整顿;
    (3)求导数,令导数为 0,失去似然方程;
    (4)解似然方程,失去的参数即为所求;

  3. 冀望最大(EM)办法,即没方法求解析解的参数估计
  4. 以及很多深度学习加持的模型
退出移动版