共计 2351 个字符,预计需要花费 6 分钟才能阅读完成。
原文链接:http://tecdat.cn/?p=21978
原文出处:拓端数据部落公众号
最近咱们被客户要求撰写对于 Stan,JAGS 的钻研报告,包含一些图形和统计输入。
本文将介绍如何在 R 中用 rstan 和 rjags 做贝叶斯回归剖析,R 中有不少包能够用来做贝叶斯回归剖析,比方最早的(同时也是参考文献和例子最多的)R2WinBUGS 包。这个包会调用 WinBUGS 软件来拟合模型,起初的 JAGS 软件也应用与之类似的算法来做贝叶斯剖析。然而 JAGS 的自由度更大,扩展性也更好。近来,STAN 和它对应的 R 包 rstan 一起进入了人们的眼帘。STAN 应用的算法与 WinBUGS 和 JAGS 不同,它改用了一种更弱小的算法使它能实现 WinBUGS 无奈胜任的工作。同时 Stan 在计算上也更为快捷,能节约工夫。
例子
设 Yi 为地区 i =1,…,ni=1,…,n 从 2012 年到 2016 年选举支持率减少的百分比。咱们的模型
式中,Xji 是地区 i 的第 j 个协变量。所有变量均中心化并标准化。咱们抉择 σ2∼InvGamma(0.01,0.01)和 α∼Normal(0100)作为误差方差和截距先验散布,并比拟不同先验的回归系数。
加载并标准化选举数据
# 加载数据
load("elec.RData")
Y <- Y[!is.na(Y+rowSums(X))]
X <- X[!is.na(Y+rowSums(X)),]
n <- length(Y)
p <- ncol(X)
## [1] 3111
p
## [1] 15
X <- scale(X)
# 将模型拟合到大小为 100 的训练集,并对残余的观测值进行预测
test <- order(runif(n))>100
table(test)
## test
## FALSE TRUE
## 100 3011
Yo <- Y[!test] # 观测数据
Xo <- X[!test,]
Yp <- Y[test] # 为预测预留的地区
Xp <- X[test,]
选举数据的探索性剖析
boxplot(X, las = 3
image(1:p, 1:p, main = "预测因子之间的相关性")
rstan 中实现
对立先验散布
如果模型没有明确指定先验散布,默认状况下,Stan 将在参数的适合范畴内收回一个对立的先验散布。留神这个先验可能是不适合的,然而只有数据创立了一个适合的后验值就能够了。
data {
int<lower=0> n; // 数据项数
int<lower=0> k; // 预测变量数
matrix[n,k] X; // 预测变量矩阵
vector[n] Y; // 后果向量
}
parameters {
real alpha; // 截距
vector[k] beta; // 预测变量系数
real<lower=0> sigma; // 误差
rstan_options(auto_write = TRUE)
#fit <- stan(file = 'mlr.stan', data = dat)
print(fit)
hist(fit, pars = pars)
dens(fit)
traceplot(fit)
rjags 中实现
用高斯先验拟合线性回归模型
library(rjags)
model{
# 预测
for(i in 1:np){Yp[i] ~ dnorm(mup[i],inv.var)
mup[i] <- alpha + inprod(Xp[i,],beta[])
# 先验概率
alpha ~ dnorm(0, 0.01)
inv.var ~ dgamma(0.01, 0.01)
sigma <- 1/sqrt(inv.var)
在 JAGS 中编译模型
# 留神:Yp 不发送给 JAGS
jags.model(model,
data = list(Yo=Yo,no=no,np=np,p=p,Xo=Xo,Xp=Xp))
coda.samples(model,
variable.names=c("beta","sigma","Yp","alpha"),
从后验预测散布 (PPD) 和 JAGS 预测散布绘制样本
# 提取每个参数的样本
samps <- samp[[1]]
Yp.samps <- samps[,1:np]
#计算 JAGS 预测的后验平均值
beta.mn <- colMeans(beta.samps)
# 绘制后验预测散布和 JAGS 预测
for(j in 1:5)
# JAGS 预测
y <- rnorm(20000,mu,sigma.mn)
plot(density(y),col=2,xlab="Y",main="PPD")
# 后验预测散布
lines(density(Yp.samps[,j]))
# 真值
abline(v=Yp[j],col=3,lwd=2)
# 95% 置信区间
alpha.mn+Xp%*%beta.mn - 1.96*sigma.mn
alpha.mn+Xp%*%beta.mn + 1.96*sigma.mn
## [1] 0.9452009
# PPD 95% 置信区间
apply(Yp.samps,2,quantile,0.025)
apply(Yp.samps,2,quantile,0.975)
## [1] 0.9634673
请留神,PPD 密度比 JAGS 预测密度略宽。这是思考 β 和 σ 中不确定性的影响,它解释了 JAGS 预测的 covarage 略低的起因。然而,对于这些数据,JAGS 预测的覆盖率依然能够。
最受欢迎的见解
1.matlab 应用贝叶斯优化的深度学习
2.matlab 贝叶斯隐马尔可夫 hmm 模型实现
3.R 语言 Gibbs 抽样的贝叶斯简略线性回归仿真
4.R 语言中的 block Gibbs 吉布斯采样贝叶斯多元线性回归
5.R 语言中的 Stan 概率编程 MCMC 采样的贝叶斯模型
6.Python 用 PyMC3 实现贝叶斯线性回归模型
7.R 语言应用贝叶斯 层次模型进行空间数据分析
8.R 语言随机搜寻变量抉择 SSVS 预计贝叶斯向量自回归(BVAR)模型
9.matlab 贝叶斯隐马尔可夫 hmm 模型实现