原文链接:http://tecdat.cn/?p=23524
在本文中,我想向你展现如何应用 R 的 Metropolis 采样从贝叶斯 Poisson 回归模型中采样。
Metropolis-Hastings 算法
Metropolis-Hastings 抽样算法是一类马尔科夫链蒙特卡洛(MCMC)办法,其次要思维是生成一个马尔科夫链 使其安稳散布为指标散布。这种算法最常见的利用之一是在贝叶斯统计中从后验密度中取样,这也是本文的指标。
该算法规定对于一个给定的状态 Xt,如何生成下一个状态 有一个候选点 Y,它是从一个提议散布 , 中生成的,依据决策规范被承受,所以链条在工夫 t + 1 时挪动到状态 Y,即 Xt+1= Y 或被回绝,所以链条在工夫 t + 1 时放弃在状态 Xt,即 Xt+1=Xt。
Metropolis 采样
在 Metropolis 算法中,提议散布是对称的,也就是说,提议散布 满足
,所以 Metropolis 采样器产生马尔科夫链的过程如下。
- 抉择一个提议散布. 在抉择它之前,理解这个函数中的现实特色。
- 从提议散布 g 中生成 X0。
- 反复进行,直到链收敛到一个安稳的散布。
- 从 生成 Y.
- 从 Uniform(0, 1)中生成 U。
- 如果 , 承受 Y 并设置 Xt+1=Y,否则设置 Xt+1=Xt。这意味着候选点 Y 被大概率地承受.
- 递增 t.
贝叶斯办法
正如我之前提到的,咱们要从定义为泊松回归模型的贝叶斯中取样。
对于贝叶斯剖析中的参数估计,咱们须要找到感兴趣的模型的似然函数,在这种状况下,从泊松回归模型中找到。
当初咱们必须为每个参数 β0 和 β1 指定一个先验散布。咱们将对这两个参数应用无信息的正态分布,β0∼N(0,100)和 β1∼N(0,100)。
最初,咱们将后验散布定义为先验散布和似然散布的乘积。
应用 Metropolis 采样器时,后验散布将是指标散布。
计算方法
这里你将学习如何应用 R 语言的 Metropolis 采样器从参数 β0 和 β1 的后验散布中采样。
数据
首先,咱们从下面介绍的泊松回归模型生成数据。
n <- 1000 # 样本大小
J <- 2 # 参数的数量
X <- runif(n,-2,2) # 生成自变量的值
beta <- runif(J,-2,2) #生成参数的值
y <- rpois(n, lambda = lambda) # 生成因变量的值
似然函数
当初咱们定义似然函数。在这种状况下,咱们将应用这个函数的对数,这是强烈建议的,以防止在运行算法时呈现数字问题。
LikelihoodFunction <- function(param){beta0 <- param\[1\]
beta1 <- param\[2\]
lambda <- exp(beta1*X + beta0)
# 对数似然函数
loglikelihoods <- sum(dpois(y, lambda = lambda, log=T))
return(loglikelihoods)
}
先验散布
接下来咱们定义参数 β0 和 β1 的先验散布。与似然函数一样,咱们将应用先验散布的对数。
beta0prior <- dnorm(beta0, 0, sqrt(100), log=TRUE)
beta1prior <- dnorm(beta1, 0, sqrt(100), log=TRUE)
return(beta0prior + beta1prior) #先验散布的对数
后验散布
因为咱们是用对数工作的,咱们把后验散布定义为似然函数的对数与先验散布的对数之和。记住,这个函数是咱们的指标函数 f(.),咱们要从中取样。
提议函数
最初,咱们定义提议散布 g(.|Xt)。因为咱们将应用 Metropolis 采样器,提议散布必须是对称的,并且取决于链的以后状态,因而咱们将应用正态分布,其平均值等于以后状态下的参数值。
Metropolis 采样器
最初,咱们编写代码,帮忙咱们执行 Metropolis 采样器。在这种状况下,因为咱们应用的是对数,咱们必须将候选点 Y 被承受的概率定义为。
# 创立一个数组来保留链的值
chain\[1, \] <- startvalue # 定义链的起始值
for (i in 1:iterations){
# 从提议函数生成 Y
Y <- ProposalFunction(chain\[i, \])
# 候选点被承受的概率
PosteriorFunction(chain\[i, \]))
# 承受或回绝 Y 的决策规范
if (runif(1) < probability) {chain\[i+1, \] <- Y
}else{chain\[i+1, \] <- chain\[i, \]
因为 MCMC 链具备很强的自相干,它可能产生的样本在短期内无奈代表实在的根底后验散布。那么,为了缩小自相干,咱们能够只应用链上的每一个 n 个值来浓缩样本。在这种状况下,咱们将在算法的每 20 次迭代中为咱们的最终链抉择一个值。
startvalue <- c(0, 0) # 定义链条的起始值
#每 20 次迭代抉择最终链的值
for (i in 1:10000){if (i == 1){cfinal\[i, \] <- chain\[i*20,\]
} else {cfinal\[i, \] <- chain\[i*20,\]
# 删除链上的前 5000 个值
burnIn <- 5000
在这里,你能够看到 ACF 图,它给咱们提供了任何序列与其滞后值的自相干值。在这种状况下,咱们展现了初始 MCMC 链的 ACF 图和对两个参数的样本进行浓缩后的最终链。从图中咱们能够得出结论,所应用的程序实际上可能大大减少自相干。
后果
在这一节中,咱们介绍了由 Metropolis 采样器产生的链以及它对参数 β0 和 β1 的散布。参数的实在值由红线示意。
与 glm()的比拟
当初咱们必须将应用 Metropolis 采样失去的后果与 glm()函数进行比拟,glm()函数用于拟合狭义 linera 模型。
下表列出了参数的理论值和应用 Metropolis 采样器失去的估计值的平均值。
## True value Mean MCMC glm
## beta0 1.0578047 1.0769213 1.0769789
## beta1 0.8113144 0.8007347 0.8009269
论断
从后果来看,咱们能够得出结论,应用 Metropolis 采样器和 glm()函数失去的泊松回归模型的参数 β0 和 β1 的估计值十分类似,并且靠近于参数的理论值。另外,必须意识到先验散布、倡议散布和链的初始值的抉择对后果有很大的影响,因而这种抉择必须正确进行。
最受欢迎的见解
1.R 语言多元 Logistic 逻辑回归 利用案例
2. 面板平滑转移回归 (PSTR) 剖析案例实现
3.matlab 中的偏最小二乘回归(PLSR)和主成分回归(PCR)
4.R 语言泊松 Poisson 回归模型剖析案例
5.R 语言回归中的 Hosmer-Lemeshow 拟合优度测验
6.r 语言中对 LASSO 回归,Ridge 岭回归和 Elastic Net 模型实现
7. 在 R 语言中实现 Logistic 逻辑回归
8.python 用线性回归预测股票价格
9.R 语言如何在生存剖析与 Cox 回归中计算 IDI,NRI 指标