关于数据挖掘:r语言使用rjags-R2jags建立贝叶斯模型

6次阅读

共计 3501 个字符,预计需要花费 9 分钟才能阅读完成。

原文链接:http://tecdat.cn/?p=2857

原文出处:拓端数据部落公众号

本文是通过对 area,perimeter,campactness 几个变量的贝叶斯建模, 来查看他们对 groovelength 这个变量的影响.

并且比照 rjags R2jags 和内置贝叶斯预测函数的后果。

读取数据

seed=read.csv("seeds_dataset.csv")
seed=seed\[,1:7\]

 查看数据的构造

 str(seed)
 'data.frame':    209 obs. of  7 variables:
  $ area        : num  14.9 14.3 13.8 16.1 14.4 ...
  $ perimeter   : num  14.6 14.1 13.9 15 14.2 ...
  $ campactness : num  0.881 0.905 0.895 0.903 0.895 ...
  $ length      : num  5.55 5.29 5.32 5.66 5.39 ...
  $ width       : num  3.33 3.34 3.38 3.56 3.31 ...
  $ asymmetry   : num  1.02 2.7 2.26 1.35 2.46 ...
  $ groovelength: num  4.96 4.83 4.8 5.17 4.96 ...

建设回归模型

 
 Residuals:
      Min       1Q   Median       3Q      Max 
 -0.66375 -0.10094  0.00175  0.11081  0.45132 
 
 Coefficients:
              Estimate Std. Error t value Pr(>|t|)    
 (Intercept)  19.46173    2.45031   7.943 1.29e-13 ***
 area          0.49724    0.08721   5.701 4.10e-08 ***
 perimeter    -0.63162    0.18179  -3.474 0.000624 ***
 campactness -14.05218    1.34325 -10.461  < 2e-16 ***
 ---
 Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
 
 Residual standard error: 0.1608 on 205 degrees of freedom
 Multiple R-squared:  0.895,  Adjusted R-squared:  0.8934 
 F-statistic: 582.4 on 3 and 205 DF,  p-value: < 2.2e-16

从回归模型的后果来看,三个自变量对因变量都有显著的意义。其中,area 有正向的影响。而其余两个变量是负向的影响。从 r 方的后果来看,达到了 0.895,模型具备较好的解释度。

建设贝叶斯回归模型

Bayesian analysis

 With bayesglm


 
 Deviance Residuals: 
      Min        1Q    Median        3Q       Max  
 -0.66331  -0.09974  -0.00002   0.11110   0.44841  
 
 Coefficients:
              Estimate Std. Error t value Pr(>|t|)    
 (Intercept)  18.90538    2.41549   7.827 2.63e-13 ***
 area          0.47826    0.08604   5.559 8.40e-08 ***
 perimeter    -0.59252    0.17937  -3.303  0.00113 ** 
 campactness -13.74353    1.32463 -10.375  < 2e-16 ***
 ---
 Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
 
 (Dispersion parameter for gaussian family taken to be 0.02584982)
 
     Null deviance: 50.4491  on 208  degrees of freedom
 Residual deviance:  5.2992  on 205  degrees of freedom
 AIC: -164.91
 
 Number of Fisher Scoring iterations: 6

 从内置贝叶斯模型的后果来看,3 个变量同样是十分显著,因而模型的后果和回归模型相似。而后咱们应用 BUGS/JAGS 软件包来建设贝叶斯模型
 

应用 BUGS/JAGS 软件包来建设贝叶斯模型
 

 

建设贝叶斯模型

 jags(model.file='bayes.bug',
              parameters=c("area","perimeter","campactness","int"),
              data = list('a' = seed$area, 'b' = seed$perimete
              n.cha

查看模型后果:

 

module glm loaded

 Compiling model graph
    Resolving undeclared variables
    Allocating nodes
 Graph information:
    Observed stochastic nodes: 209
    Unobserved stochastic nodes: 5
    Total graph size: 1608
 


Initializing model


bb <- jags1$BUGSoutput   提取“BUGS 输入”mm <- as.mcmc.bugs(bb)   将其转换为 coda 能够解决的“mcmc”对象
plot(jags1)              绘制图像 

从下面的图中,咱们能够看到自变量的中位数和置信区间。从置信区间来看,各个变量的取值和贝叶斯模型的后果相似。贝叶斯后果的值全副落入在了置信区间内。

而后绘制每次迭代中各个变量参数的轨迹图

trace + density #轨迹图 

能够看到每个变量的参数都在肯定区间内稳定。同时能够看到误差在肯定的迭代次数之后趋于收敛。

而后绘制每个变量参数的密度图 prettier density plot

能够看到每个变量的参数的密度散布近似于正态分布。同时咱们能够看到散布的均值和贝叶斯模型,失去的后果相似。

而后绘制每个变量参数的置信区间 estimate + credible interval plot

从后果来看,能够看到各个变量参数的置信区间,campatness 和 int 的置信区间较大,而其余两个变量的置信区间较小。

从下面的试验后果比照,咱们能够看到,三个自变量对因变量均有重要的影响。area,perimeter,campactness 几个变量他们对 groovelength 这个变量均有重要的影响。同时咱们能够认为回归模型的后果和贝叶斯模型的后果类似。而后咱们应用 rjags&R2jags 软件包来对数据进行贝叶斯型的建设,从后果来看,同样和之前失去的模型后果相差不大。并且咱们通过模型的迭代,能够失去每个参数的置信区间。


最受欢迎的见解

1.matlab 应用贝叶斯优化的深度学习

2.matlab 贝叶斯隐马尔可夫 hmm 模型实现

3.R 语言 Gibbs 抽样的贝叶斯简略线性回归仿真

4.R 语言中的 block Gibbs 吉布斯采样贝叶斯多元线性回归

5.R 语言中的 Stan 概率编程 MCMC 采样的贝叶斯模型

6.Python 用 PyMC3 实现贝叶斯线性回归模型

7.R 语言应用贝叶斯 层次模型进行空间数据分析

8.R 语言随机搜寻变量抉择 SSVS 预计贝叶斯向量自回归(BVAR)模型

9.matlab 贝叶斯隐马尔可夫 hmm 模型实现

正文完
 0