原文链接:http://tecdat.cn/?p=26932 

在进行穿插验证之前,很天然地说“我会预烧 50%(比如说)我的数据来训练一个模型,而后用剩下的来拟合模型”。例如,咱们能够应用训练数据进行变量抉择(例如,在逻辑回归中应用一些逐渐过程),而后,一旦抉择了变量,就将模型拟合到残余的察看集上。一个天然的问题通常是“这真的重要吗?”。

为了可视化这个问题,思考我的(简略)数据集

应用心脏病数据,预测急诊病人的心肌梗死,蕴含变量:

  1. 心脏指数
  2. 心搏量指数
  3. 舒张压
  4. 肺动脉压
  5. 心室压力
  6. 肺阻力
  7. 是否存活

让咱们生成 100 个训练样本(咱们保留大概 50% 的察看值)。在它们中的每一个上,咱们应用逐渐过程,并保留残余变量的估计值(以及它们的标准差)

M=matrix(NA,100,ncol(MODE))for(i in 1:100){reg=step(glm(PRO=="CS"~.,dataYE\[idx,\]))

而后,对于 7 个协变量(和常数),咱们能够查看拟合在训练样本上的模型中的系数值,以及拟合在验证样本上的模型上的值

idx=which(!is.na(M\[,j\]))plot(M\[idx,j\],M2\[idx,j\])ablinesegments

例如,对于截距,咱们有以下

其中程度段是模型上拟合在训练样本上的参数的置信区间,垂直段是验证样本上的置信区间。蓝色局部示意某种一致性,而红色局部示意实际上,一个模型的系数为负,另一个模型为正。

咱们还能够可视化两个估计量的联结散布,

for(j in 1:8){fa = kde(x=Z, H=H)image(fat$eots\[\[1\]\],

在这里,简直在对角线上,

这意味着两个样本的截距(或多或少)雷同。而后咱们能够查看其余参数。

在该变量上,它仿佛在训练数据集上很显著(不知何故,这与它在逐渐过程之后保留在模型中的事实统一)但在验证样本上不显著(或简直不显著)。

其余的则更加统一(有一些可能的异样值)

在下一个问题上,咱们在训练样本上又有显著性,但在验证样本上没有。

可能更乏味:

两者十分统一。


最受欢迎的见解

1.R语言多元Logistic逻辑回归 利用案例

2.面板平滑转移回归(PSTR)剖析案例实现剖析案例实现")

3.matlab中的偏最小二乘回归(PLSR)和主成分回归(PCR)

4.R语言泊松Poisson回归模型剖析案例

5.R语言混合效应逻辑回归Logistic模型剖析肺癌

6.r语言中对LASSO回归,Ridge岭回归和Elastic Net模型实现

7.R语言逻辑回归、Naive Bayes贝叶斯、决策树、随机森林算法预测心脏病

8.python用线性回归预测股票价格

9.R语言用逻辑回归、决策树和随机森林对信贷数据集进行分类预测