原文链接:http://tecdat.cn/?p=9564

最近咱们被客户要求撰写对于多元回归的钻研报告,包含一些图形和统计输入。

我从马里兰州生物流考察中提取了一些数据,以进行多元回归剖析。数据因变量是每75米长的水流中长鼻鱼(Rhinichthys cataractae)的数量。自变量是河流散失的面积(英亩);氧浓度(毫克/升);水流段的最大深度(以厘米为单位);硝酸盐浓度(毫克/升);硫酸盐浓度(毫克/升);以及采样日期的水温(以摄氏度为单位)

目录

如何做多元回归

逐步回归抉择模型

逐渐程序

定义最终模型

 方差分析

预测值图

查看模型的假如

模型拟合规范

将模型与似然比测验进行比拟


 

如何做多元回归

 

多重相干

数据集蕴含多个数值变量时,最好查看这些变量之间的相关性。起因之一是,能够轻松查看哪些自变量与该因变量相干。第二个起因是,如果要构建多元回归模型,则增加高度相干的自变量不太可能对模型有很大的改良。

 

最初,值得看一下数字变量的散布。如果散布差别很大,则应用Kendall或Spearman相关性可能更适合。同样,如果自变量与因变量的散布不同,则可能须要对自变量进行转换。

 

 

Data = read.table(textConnection(Input),header=TRUE)Data.num =    select(Data,          Longnose,          Acerage,          DO2,          Maxdepth,          NO3,          SO4,          Temp)headtail(Data.num)   Longnose Acerage  DO2 Maxdepth  NO3   SO4 Temp1        13    2528  9.6       80 2.28 16.75 15.32        12    3333  8.5       83 5.34  7.74 19.43        54   19611  8.3       96 0.99 10.92 19.566       20    4106 10.0       96 2.62  5.45 15.467       38   10274  9.3       90 5.45 24.76 15.068       19     510  6.7       82 5.25 14.19 26.5corr.test(Data.num,           use = "pairwise",          method="pearson",          adjust="none",     # 能够调整p值          alpha=.05) Correlation matrix         Longnose Acerage   DO2 Maxdepth   NO3   SO4  TempLongnose     1.00    0.35  0.14     0.30  0.31 -0.02  0.14Acerage      0.35    1.00 -0.02     0.26 -0.10  0.05  0.00DO2          0.14   -0.02  1.00    -0.06  0.27 -0.07 -0.32Maxdepth     0.30    0.26 -0.06     1.00  0.04 -0.05  0.00NO3          0.31   -0.10  0.27     0.04  1.00 -0.09  0.00SO4         -0.02    0.05 -0.07    -0.05 -0.09  1.00  0.08Temp         0.14    0.00 -0.32     0.00  0.00  0.08  1.00Sample Size Probability values (Entries above the diagonal are adjusted for multiple tests.)         Longnose Acerage  DO2 Maxdepth  NO3  SO4 TempLongnose     0.00    0.00 0.27     0.01 0.01 0.89 0.26Acerage      0.00    0.00 0.86     0.03 0.42 0.69 0.98DO2          0.27    0.86 0.00     0.64 0.02 0.56 0.01Maxdepth     0.01    0.03 0.64     0.00 0.77 0.69 0.97NO3          0.01    0.42 0.02     0.77 0.00 0.48 0.99SO4          0.89    0.69 0.56     0.69 0.48 0.00 0.52Temp         0.26    0.98 0.01     0.97 0.99 0.52 0.00  

 

 

 

 


点击题目查阅往期内容

R语言逻辑回归(Logistic Regression)、回归决策树、随机森林信用卡守约剖析信贷数据集

左右滑动查看更多

01

02

03

04

逐步回归抉择模型

应用AIC(赤池信息规范)作为抉择规范。能够应用选项k = log(n) 代替BIC。 

 

逐渐程序

Longnose ~ 1           Df Sum of Sq    RSS    AIC+ Acerage   1   17989.6 131841 518.75+ NO3       1   14327.5 135503 520.61+ Maxdepth  1   13936.1 135894 520.81<none>                  149831 525.45+ Temp      1    2931.0 146899 526.10+ DO2       1    2777.7 147053 526.17+ SO4       1      45.3 149785 527.43..< snip... more steps >..Longnose ~ Acerage + NO3 + Maxdepth           Df Sum of Sq    RSS    AIC<none>                  107904 509.13+ Temp      1    2948.0 104956 509.24+ DO2       1     669.6 107234 510.70- Maxdepth  1    6058.4 113962 510.84+ SO4       1       5.9 107898 511.12- Acerage   1   14652.0 122556 515.78- NO3       1   16489.3 124393 516.80Call:lm(formula = Longnose ~ Acerage + NO3 + Maxdepth, data = Data)Coefficients:(Intercept)      Acerage          NO3     Maxdepth  -23.829067     0.001988     8.673044     0.336605 

 

 

定义最终模型

 

summary(model.final)      # 显示系数,R平方和总体p值              Estimate Std. Error t value Pr(>|t|)  (Intercept) -2.383e+01  1.527e+01  -1.560  0.12367  Acerage      1.988e-03  6.742e-04   2.948  0.00446 **Maxdepth     3.366e-01  1.776e-01   1.896  0.06253 .NO3          8.673e+00  2.773e+00   3.127  0.00265 **Multiple R-squared:  0.2798,  Adjusted R-squared:  0.2461F-statistic: 8.289 on 3 and 64 DF,  p-value: 9.717e-05

 

 方差分析

 

Anova Table (Type II tests)Response: Longnose          Sum Sq Df F value   Pr(>F)  Acerage    14652  1  8.6904 0.004461 **Maxdepth    6058  1  3.5933 0.062529 .NO3        16489  1  9.7802 0.002654 **Residuals 107904 64

 

预测值图

 

**

 

**

查看模型的假如

 

 

线性模型中残差的直方图。这些残差的散布应近似正态。

 

 

 

 

 

残差与预测值的关系图。残差应无偏且均等。 

 

 

             

 

模型拟合规范

模型拟合规范可用于确定最合适的模型。应用AIC或可选的BIC。AICc是对AIC的一种调整,它更适宜于观测值绝对较少的数据集。AIC,AICc和BIC越小越好。

 

在上面的例子中,咱们只探讨了显著相干的种植面积MAXDEPTHNO3 。 

$Models   Formula                                    1  "Longnose ~ Acerage"                       2  "Longnose ~ Maxdepth"                      3  "Longnose ~ NO3"                           4  "Longnose ~ Acerage + Maxdepth"            5  "Longnose ~ Acerage + NO3"                 6  "Longnose ~ Maxdepth + NO3"                7  "Longnose ~ Acerage + Maxdepth + NO3"      8  "Longnose ~ Acerage + Maxdepth + NO3 + DO2"9  "Longnose ~ Acerage + Maxdepth + NO3 + SO4"10 "Longnose ~ Acerage + Maxdepth + NO3 + Temp"  $Fit.criteria   Rank Df.res   AIC  AICc   BIC R.squared Adj.R.sq   p.value Shapiro.W Shapiro.p1     2     66 713.7 714.1 720.4   0.12010  0.10670 3.796e-03    0.7278 6.460e-102     2     66 715.8 716.2 722.4   0.09301  0.07927 1.144e-02    0.7923 2.115e-083     2     66 715.6 716.0 722.2   0.09562  0.08192 1.029e-02    0.7361 9.803e-104     3     65 711.8 712.4 720.6   0.16980  0.14420 2.365e-03    0.7934 2.250e-085     3     65 705.8 706.5 714.7   0.23940  0.21600 1.373e-04    0.7505 2.055e-096     3     65 710.8 711.4 719.6   0.18200  0.15690 1.458e-03    0.8149 8.405e-087     4     64 704.1 705.1 715.2   0.27980  0.24610 9.717e-05    0.8108 6.511e-088     5     63 705.7 707.1 719.0   0.28430  0.23890 2.643e-04    0.8041 4.283e-089     5     63 706.1 707.5 719.4   0.27990  0.23410 3.166e-04    0.8104 6.345e-0810    5     63 704.2 705.6 717.5   0.29950  0.25500 1.409e-04    0.8225 1.371e-07

 

几个模型的AICc(批改后的Akaike信息规范)图。模型7最小化了AICc,因而被选为该模型中的最佳模型。

 

 

将模型与似然比测验进行比拟

将模型与 平方和测验或似然比测验进行比拟,以查看是否有其余项显着缩小平方误差和 。

Analysis of Variance TableModel 1: Longnose ~ Acerage + Maxdepth + NO3Model 2: Longnose ~ Acerage + Maxdepth  Res.Df    RSS Df Sum of Sq      F   Pr(>F)  1     64 107904                               2     65 124393 -1    -16489 9.7802 0.002654 **Likelihood ratio testModel 1: Longnose ~ Acerage + Maxdepth + NO3Model 2: Longnose ~ Acerage + Maxdepth  #Df  LogLik Df  Chisq Pr(>Chisq)  1   5 -347.05                       2   4 -351.89 -1 9.6701   0.001873 **Model 1: Longnose ~ Acerage + Maxdepth + NO3 + DO2Model 2: Longnose ~ Acerage + Maxdepth + NO3 + SO4Model 3: Longnose ~ Acerage + Maxdepth + NO3 + TempModel A: Longnose ~ Acerage + Maxdepth + NO3    DfO      RSSO DfA      RSSA Df        SS      F Pr(>F)1vA  63 107234.38  64 107903.97 -1   -669.59 0.3934 0.53282vA  63 107898.06  64 107903.97 -1     -5.91 0.0035 0.95333vA  63 104955.97  64 107903.97 -1  -2948.00 1.7695 0.1882Model 1: Longnose ~ Acerage + Maxdepth + NO3 + DO2Model 2: Longnose ~ Acerage + Maxdepth + NO3 + SO4Model 3: Longnose ~ Acerage + Maxdepth + NO3 + TempModel A: Longnose ~ Acerage + Maxdepth + NO3    DfO    logLikO DfA    logLikA Df     logLik  Chisq Pr(>Chisq)1vA  63 -346.83881  64 -347.05045 -1    0.21164 0.4233     0.51532vA  63 -347.04859  64 -347.05045 -1    0.00186 0.0037     0.95133vA  63 -346.10863  64 -347.05045 -1    0.94182 1.8836     0.1699

 


点击文末 “浏览原文”

获取全文残缺代码数据资料。

本文选自《R语言逐渐多元回归模型剖析长鼻鱼密度影响因素》。

点击题目查阅往期内容

PYTHON用户散失数据挖掘:建设逻辑回归、XGBOOST、随机森林、决策树、反对向量机、奢侈贝叶斯和KMEANS聚类用户画像
Python对商店数据进行lstm和xgboost销售量工夫序列建模预测剖析
PYTHON集成机器学习:用ADABOOST、决策树、逻辑回归集成模型分类和回归和网格搜寻超参数优化
R语言集成模型:晋升树boosting、随机森林、束缚最小二乘法加权均匀模型交融剖析工夫序列数据
Python对商店数据进行lstm和xgboost销售量工夫序列建模预测剖析
R语言用主成分PCA、 逻辑回归、决策树、随机森林剖析心脏病数据并高维可视化
R语言基于树的办法:决策树,随机森林,Bagging,加强树
R语言用逻辑回归、决策树和随机森林对信贷数据集进行分类预测
spss modeler用决策树神经网络预测ST的股票
R语言中应用线性模型、回归决策树主动组合特色因子程度
R语言中自编基尼系数的CART回归决策树的实现
R语言用rle,svm和rpart决策树进行工夫序列预测
python在Scikit-learn中用决策树和随机森林预测NBA获胜者
python中应用scikit-learn和pandas决策树进行iris鸢尾花数据分类建模和穿插验证
R语言里的非线性模型:多项式回归、部分样条、平滑样条、 狭义相加模型GAM剖析
R语言用规范最小二乘OLS,狭义相加模型GAM ,样条函数进行逻辑回归LOGISTIC分类
R语言ISLR工资数据进行多项式回归和样条回归剖析
R语言中的多项式回归、部分回归、核平滑和平滑样条回归模型
R语言用泊松Poisson回归、GAM样条曲线模型预测骑自行车者的数量
R语言分位数回归、GAM样条曲线、指数平滑和SARIMA对电力负荷工夫序列预测R语言样条曲线、决策树、Adaboost、梯度晋升(GBM)算法进行回归、分类和动静可视化
如何用R语言在机器学习中建设集成模型?
R语言ARMA-EGARCH模型、集成预测算法对SPX理论稳定率进行预测在python 深度学习Keras中计算神经网络集成模型R语言ARIMA集成模型预测工夫序列剖析R语言基于Bagging分类的逻辑回归(Logistic Regression)、决策树、森林剖析心脏病患者
R语言基于树的办法:决策树,随机森林,Bagging,加强树
R语言基于Bootstrap的线性回归预测置信区间预计办法
R语言应用bootstrap和增量法计算狭义线性模型(GLM)预测置信区间
R语言样条曲线、决策树、Adaboost、梯度晋升(GBM)算法进行回归、分类和动静可视化
Python对商店数据进行lstm和xgboost销售量工夫序列建模预测剖析
R语言随机森林RandomForest、逻辑回归Logisitc预测心脏病数据和可视化剖析
R语言用主成分PCA、 逻辑回归、决策树、随机森林剖析心脏病数据并高维可视化
Matlab建设SVM,KNN和奢侈贝叶斯模型分类绘制ROC曲线
matlab应用分位数随机森林(QRF)回归树检测异样值