乐趣区

关于算法:拓端tecdatR语言Metropolis-Hastings采样和贝叶斯泊松回归Poisson模型

原文链接:http://tecdat.cn/?p=23524

在本文中,我想向你展现如何应用 R 的 Metropolis 采样从贝叶斯 Poisson 回归模型中采样。

Metropolis-Hastings 算法

Metropolis-Hastings 抽样算法是一类马尔科夫链蒙特卡洛(MCMC)办法,其次要思维是生成一个马尔科夫链 使其安稳散布为指标散布。这种算法最常见的利用之一是在贝叶斯统计中从后验密度中取样,这也是本文的指标。

该算法规定对于一个给定的状态 Xt,如何生成下一个状态  有一个候选点 Y,它是从一个提议散布 , 中生成的,依据决策规范被承受,所以链条在工夫 t + 1 时挪动到状态 Y,即 Xt+1= Y 或被回绝,所以链条在工夫 t + 1 时放弃在状态 Xt,即 Xt+1=Xt。

Metropolis 采样

在 Metropolis 算法中,提议散布是对称的,也就是说,提议散布  满足 

,所以 Metropolis 采样器产生马尔科夫链的过程如下。

  1. 抉择一个提议散布. 在抉择它之前,理解这个函数中的现实特色。
  2. 从提议散布 g 中生成 X0。
  3. 反复进行,直到链收敛到一个安稳的散布。
  • 从 生成 Y.
  • 从 Uniform(0, 1)中生成 U。
  • 如果 , 承受 Y 并设置 Xt+1=Y,否则设置 Xt+1=Xt。这意味着候选点 Y 被大概率地承受.
  • 递增 t.

贝叶斯办法

正如我之前提到的,咱们要从定义为泊松回归模型的贝叶斯中取样。

对于贝叶斯剖析中的参数估计,咱们须要找到感兴趣的模型的似然函数,在这种状况下,从泊松回归模型中找到。

当初咱们必须为每个参数 β0 和 β1 指定一个先验散布。咱们将对这两个参数应用无信息的正态分布,β0∼N(0,100)和 β1∼N(0,100)。

最初,咱们将后验散布定义为先验散布和似然散布的乘积。

应用 Metropolis 采样器时,后验散布将是指标散布。

计算方法

这里你将学习如何应用 R 语言的 Metropolis 采样器从参数 β0 和 β1 的后验散布中采样。

数据

首先,咱们从下面介绍的泊松回归模型生成数据。

n <- 1000 #  样本大小
J <- 2 # 参数的数量
X <- runif(n,-2,2) # 生成自变量的值
beta <- runif(J,-2,2) #生成参数的值
y <- rpois(n, lambda = lambda) # 生成因变量的值

似然函数

当初咱们定义似然函数。在这种状况下,咱们将应用这个函数的对数,这是强烈建议的,以防止在运行算法时呈现数字问题。

LikelihoodFunction <- function(param){beta0 <- param\[1\] 
        beta1 <- param\[2\] 
        lambda <- exp(beta1*X + beta0)
        # 对数似然函数
        loglikelihoods <- sum(dpois(y, lambda = lambda, log=T)) 
        return(loglikelihoods)
}

先验散布

接下来咱们定义参数 β0 和 β1 的先验散布。与似然函数一样,咱们将应用先验散布的对数。

        beta0prior <- dnorm(beta0, 0, sqrt(100), log=TRUE)
        beta1prior <- dnorm(beta1, 0, sqrt(100), log=TRUE)
        return(beta0prior + beta1prior) #先验散布的对数

后验散布

因为咱们是用对数工作的,咱们把后验散布定义为似然函数的对数与先验散布的对数之和。记住,这个函数是咱们的指标函数 f(.),咱们要从中取样。

提议函数

最初,咱们定义提议散布 g(.|Xt)。因为咱们将应用 Metropolis 采样器,提议散布必须是对称的,并且取决于链的以后状态,因而咱们将应用正态分布,其平均值等于以后状态下的参数值。

Metropolis 采样器

最初,咱们编写代码,帮忙咱们执行 Metropolis 采样器。在这种状况下,因为咱们应用的是对数,咱们必须将候选点 Y 被承受的概率定义为。

        # 创立一个数组来保留链的值
        chain\[1, \] <- startvalue # 定义链的起始值
        for (i in 1:iterations){
                # 从提议函数生成 Y
                Y <- ProposalFunction(chain\[i, \]) 
                # 候选点被承受的概率
                                           PosteriorFunction(chain\[i, \]))
                # 承受或回绝 Y 的决策规范 
                if (runif(1) < probability) {chain\[i+1, \] <- Y
                }else{chain\[i+1, \] <- chain\[i, \]

因为 MCMC 链具备很强的自相干,它可能产生的样本在短期内无奈代表实在的根底后验散布。那么,为了缩小自相干,咱们能够只应用链上的每一个 n 个值来浓缩样本。在这种状况下,咱们将在算法的每 20 次迭代中为咱们的最终链抉择一个值。

startvalue <- c(0, 0) # 定义链条的起始值
#每 20 次迭代抉择最终链的值
for (i in 1:10000){if (i == 1){cfinal\[i, \] <- chain\[i*20,\]
        } else {cfinal\[i, \] <- chain\[i*20,\]

# 删除链上的前 5000 个值
burnIn <- 5000

在这里,你能够看到 ACF 图,它给咱们提供了任何序列与其滞后值的自相干值。在这种状况下,咱们展现了初始 MCMC 链的 ACF 图和对两个参数的样本进行浓缩后的最终链。从图中咱们能够得出结论,所应用的程序实际上可能大大减少自相干。

后果

在这一节中,咱们介绍了由 Metropolis 采样器产生的链以及它对参数 β0 和 β1 的散布。参数的实在值由红线示意。

与 glm()的比拟

当初咱们必须将应用 Metropolis 采样失去的后果与 glm()函数进行比拟,glm()函数用于拟合狭义 linera 模型。

下表列出了参数的理论值和应用 Metropolis 采样器失去的估计值的平均值。

##       True value Mean MCMC       glm
## beta0  1.0578047 1.0769213 1.0769789
## beta1  0.8113144 0.8007347 0.8009269

论断

从后果来看,咱们能够得出结论,应用 Metropolis 采样器和 glm()函数失去的泊松回归模型的参数 β0 和 β1 的估计值十分类似,并且靠近于参数的理论值。另外,必须意识到先验散布、倡议散布和链的初始值的抉择对后果有很大的影响,因而这种抉择必须正确进行。


最受欢迎的见解

1.R 语言多元 Logistic 逻辑回归 利用案例

2. 面板平滑转移回归 (PSTR) 剖析案例实现

3.matlab 中的偏最小二乘回归(PLSR)和主成分回归(PCR)

4.R 语言泊松 Poisson 回归模型剖析案例

5.R 语言回归中的 Hosmer-Lemeshow 拟合优度测验

6.r 语言中对 LASSO 回归,Ridge 岭回归和 Elastic Net 模型实现

7. 在 R 语言中实现 Logistic 逻辑回归

8.python 用线性回归预测股票价格

9.R 语言如何在生存剖析与 Cox 回归中计算 IDI,NRI 指标

退出移动版