共计 1719 个字符,预计需要花费 5 分钟才能阅读完成。
原文链接:http://tecdat.cn/?p=3186
原文出处:拓端数据部落公众号
本文显示了如何基于潜在的 ARMA-GARCH 模型(当然也波及更宽泛意义上的 QRM)来拟合和预测危险价值(VaR)。
从 ARMA-GARCH 过程模仿(log-return)数据
咱们思考应用 t 散布的 ARMA(1,1)-GARCH(1,1)过程。
模仿一个序列(用于阐明目标)。
nu <- 3
fixed.p <- list(mu = 0, # mu (截距)
ar1 = 0.5, # phi_1 (AR(1) 参数 of mu_t)
ma1 = 0.3, # theta_1 (MA(1) 参数 of mu_t)
omega = 4, # alpha_0 (截距)
alpha1 = 0.4, # alpha_1 (GARCH(1) 参数 of sigma_t^2)
beta1 = 0.2, # beta_1 (GARCH(1) 参数 of sigma_t^2)
shape = nu) #
armaOrder <- c(1,1) # ARMA 参数
garchOrder <- c(1,1) # GARCH 参数
varModel <- list(model = "sGARCH", garchOrder = garchOrder)
spec <- ugarchspec(varModel, mean.model = list(armaOrder = armaOrder),
fixed.pars = fixed.p, distribution.model = "std") # t 规范残差
作为一个完整性检查,让咱们绘制模仿序列,条件标准偏差和残差。
plot(X, type = "l", xlab = "t", ylab = expression(X[t]))
plot(sig, type = "h", xlab = "t", ylab = expression(sigma[t]))
plot(eps, type = "l", xlab = "t", ylab = expression(epsilon[t]))
将 ARMA-GARCH 模型拟合到(模仿)数据
拟合 ARMA-GARCH 模型。
让咱们再思考一些健全性查看。
## 拟合 ARMA(1,1)-GARCH(1,1) model
spec <- ugarchspec(varModel, mean.model = list(armaOrder = armaOrder),
distribution.model = "std") #
fit <- ugarchfit(spec, data = X) # fit
##
mu. <- fitted(fit) # 拟合 hat{mu}_t (= hat{X}_t)
sig. <- sigma(fit) # 拟合 hat{sigma}_t
##
stopifnot(all.equal(as.numeric(mu.), fit@fit$fitted.values),
all.equal(as.numeric(sig.), fit@fit$sigma))
计算 VaR 工夫序列
计算 VaR 估计值。请留神,咱们也能够在这里应用基于 GPD 的估算模型。
Backtest VaR 估计值
让咱们回测 VaR 的预计。
## [1] 10
## [1] 12
## [1] "Correct Exceedances"
## [1] "Fail to Reject H0"
## [1] "Correct Exceedances & Independent"
## [1] "Fail to Reject H0"
基于拟合模型预测 VaR
当初预测 VaR。
模仿 X_t 的将来轨迹并计算相应的 VaR
模仿序列,预计每个模仿门路的 VaR(留神 quantile()
这里不能应用,因而咱们必须手动构建 VaR)并计算 VaR \_alpha 的 bootstrap 置信区间。
后果比照
最初,咱们显示所有后果。
十分感谢您浏览本文,有任何问题请在上面留言!
最受欢迎的见解
1. R 语言基于 ARMA-GARCH-VaR 模型拟合和预测实证钻研
2. R 语言时变参数 VAR 随机模型
3. R 语言时变参数 VAR 随机模型
4. R 语言基于 ARMA-GARCH 过程的 VAR 拟合和预测
5.GARCH(1,1),MA 以及历史模拟法的 VaR 比拟
6. R 语言时变参数 VAR 随机模型
7. R 语言实现向量主动回归 VAR 模型
8. R 语言随机搜寻变量抉择 SSVS 预计贝叶斯向量自回归(BVAR)模型
9. R 语言 VAR 模型的不同类型的脉冲响应剖析
正文完