关于算法:R语言用局部加权回归Lowess对logistic逻辑回归诊断和残差分析

49次阅读

共计 1380 个字符,预计需要花费 4 分钟才能阅读完成。

原文链接:http://tecdat.cn/?p=22328 

目前,回归诊断不仅用于个别线性模型的诊断,还被逐步推广利用于狭义线性模型畛域(如用于 logistic 回归模型),但因为个别线性模型与狭义线性模型在残差散布的假设等方面有所不同,所以推广和利用还存在许多问题。鉴于此,本文应用图表考查 logistic 模型的拟合优度。

如何解决从逻辑回归中失去的残差图?为了更好地了解,让咱们思考以下数据集

glm(Y~X1+X2,family=binomial)

如果咱们应用 R 的诊断图,第一个是残差的散点图,对照预测值。

> plot(reg,which=1)

也能够

> plot(predict(reg),residuals(reg))
> abline(h=0,lty=2)

为什么咱们会有这两条线的点?因为咱们预测了一个变量取值为 0 或 1 的概率。当咱们应用黑白时,能够更分明地看到,如果真值是 0,那么咱们总是预测得更多,残差必须是负的(蓝点),如果真值是 1,那么咱们就低估了,残差必须是正的(红点)。当然,还有一个枯燥的关系

> plot(predict(reg),residuals(reg) )

点正好在一条平滑的曲线上,是预测值的一个函数。

当初,从这个图上看不出什么。咱们运行一个部分加权回归,看看产生了什么。

 lowess(predict(reg),residuals(reg)

 

这是咱们在第一个诊断函数中所失去的。但在这个部分回归中,咱们没有失去置信区间。咱们能够假如图中水平线十分靠近虚线吗?

 segments(fit+2* se.fit,  fit-2* se.fit)

能够。这个图表表明什么?

事实上,该图可能不是察看残差的惟一办法。如果不把它们与两个解释变量绘制在一起呢?例如,如果咱们将残差与第二个解释变量作比照,咱们会失去

> lines(lowess(X2,residuals(reg))

对照一下,该图与咱们之前的图类似。

如果咱们当初看一下与第一个解释变量的关系:

> lines(lowess(X1,residuals(reg))

因为咱们能够分明地辨认出二次方的影响。这张图表明,咱们应该对第一个变量的平方进行回归。而且能够看出它是一个重要的影响因素。

当初,如果咱们运行一个包含这个二次方效应的回归,咱们会失去什么。

 glm(Y~X1+I(X1^2)+X2,family=binomial)

看起来和第一个逻辑回归模型后果相似。那么本文的观点是什么?观点是

  • 图形能够用来察看可能出错的中央,对可能的非线性转换有更多的直觉判断。
  • 图形不是万能的,从实践上讲,残差线应该是一条程度的直线。但咱们也心愿模型尽可能的简略。所以,在某个阶段,咱们兴许应该依附统计测验和置信区间。

最受欢迎的见解

1.R 语言多元 Logistic 逻辑回归 利用案例

2. 面板平滑转移回归 (PSTR) 剖析案例实现

3.matlab 中的偏最小二乘回归(PLSR)和主成分回归(PCR)

4.R 语言泊松 Poisson 回归模型剖析案例

5.R 语言回归中的 Hosmer-Lemeshow 拟合优度测验

6.r 语言中对 LASSO 回归,Ridge 岭回归和 Elastic Net 模型实现

7. 在 R 语言中实现 Logistic 逻辑回归

8.python 用线性回归预测股票价格

9.R 语言如何在生存剖析与 Cox 回归中计算 IDI,NRI 指标

正文完
 0