共计 2090 个字符,预计需要花费 6 分钟才能阅读完成。
原文链接:http://tecdat.cn/?p=11878
Nelson-Siegel- [Svensson]模型是拟合收益曲线的罕用办法。它的长处是其参数的经济可解释性,被银行宽泛应用。但它不肯定在所有状况下都无效:模型参数有时十分不稳固,无奈收敛。
在之前的文章中,咱们提供了 Nelson-Siegel 模型 收敛失败的示例,咱们曾经展现了它的一些缺点。
蒙特卡洛模仿帮忙咱们了解:
3. for(j in 1:N_SIMULATIONS)
5. {10. npo = c(newYields, oldYields)
12. plot(MATURITY_BASES, oldYields, ylim=c(min(npo), max(npo)))
14. lines(MATURITY_BASES, oldYields)
16. points(MATURITY_BASES, newYields, col="red", pch=4)
18. points(newMATs, newNsYields, col="blue")
20. lines(newMATs, newNsYields, col="blue")
咱们要做的是:从一些收益率曲线开始,而后逐渐地随机批改收益率,最初尝试 NS 模型拟合新的收益。因而咱们对此进行了模仿。
对于 Nelson-Siegel 模型,此 Monte-Carlo 模仿只管假设前一步的收益(旧收益率)与 NS 曲线_齐全_匹配。然而,即使如此也无奈完全避免麻烦。咱们如何发现这些麻烦?在每一步中,咱们计算两条相邻曲线之间的最大间隔(supremum-norm):
maxDistanceArray[j] = max(abs(oldYieldsArray[j,] - newNsYieldsArray[j,]) )
最初,咱们找到到上一条曲线的最大间隔的步骤,这就是收敛失败的示例。
_maxDistanceArray_的概率密度 如下所示:
散布尾部在 0.08 处减小,但对于收益率曲线而言,每天偏移 8 个点并不常见。因而,只管咱们进行了 1e5 = 10000 蒙特卡洛模仿,但只有极少数状况,咱们能够将其标记为不良。训练神经网络相对是不够的。而且,两条 Nelson-Siegel 曲线可能彼此十分靠近,但其参数却彼此远离。因为模型是线性的,因而能够假如 beta 的极大变动(例如,超过 95 分位数)是异样值,并将其标记为不良。
3. idx = intersect(intersect(which(b0 < q_b0), which(b1 < q_b1)), which(b2 < q_b2))
5. par(mfrow=c(3,3))
7. plot(density(log(b0)))
9. plot(density(log(b1)))
11. plot(density(log(b2)))
13. plot(density(log(b0[idx])))
15. plot(density(log(b1[idx])))
17. plot(density(log(b2[idx])))
19. plot(density(b0[idx]))
21. plot(density(b1[idx]))
23. plot(density(b2[idx]))
29. b0 = b0-mean(b0)
31. b1 = b1-mean(b1)
33. b2 = b2-mean(b2)
37. #训练神经网络
39. X = cbind(b0, b1, b2)
41. Y = array(0, dim=(N_SIMULATIONS-1))
43. Y[idx] = 1
而后咱们能够训练神经网络
1. SPLT = 0.8
3. library(keras)
5. b = floor(SPLT*(N_SIMULATIONS-1))
14. plot(history)
16. model %>% evaluate(x_test, y_test)
神经网络不仅在样本而且在验证集上都提供了高精度。
如果模仿新数据集,对模型进行批改:例如批改VOLAs = 0.005*sqrt(MATURITY_BASES)
到 VOLAs = 0.05*sqrt(MATURITY_BASES)
将无奈辨认新数据集上的不良状况。
有余与瞻望:只管咱们在两种状况下均对数据进行了归一化和平均化,然而模型波动性的线性变动对尾局部位数具备很高的非线性影响。
那么,咱们是否须要一个更简单的 AI 模型?
最受欢迎的见解
1. 用于 NLP 的 Python:应用 Keras 的多标签文本 LSTM 神经网络分类
2.Python 中利用长短期记忆模型 LSTM 进行工夫序列预测剖析 – 预测电力耗费数据
3.python 在 Keras 中应用 LSTM 解决序列问题
4.Python 中用 PyTorch 机器学习分类预测银行客户散失模型
5.R 语言多元 Copula GARCH 模型工夫序列预测
6. 在 r 语言中应用 GAM(狭义相加模型)进行电力负荷工夫序列剖析
7.R 语言中 ARMA,ARIMA(Box-Jenkins),SARIMA 和 ARIMAX 模型用于预测工夫序列数
8.R 语言预计时变 VAR 模型工夫序列的实证钻研剖析案例
9. 用狭义加性模型 GAM 进行工夫序列剖析