关于数据挖掘:R语言VaR市场风险计算方法与回测用Logit逻辑回归Probit模型信用风险与分类模型

原文链接:http://tecdat.cn/?p=27530 

市场危险指的是由金融市场中资产的价格上涨或价格稳定减少所导致的可能损失。

市场危险蕴含两种类型:绝对危险和相对危险。相对危险关注的是整个资产收益的稳定率,而绝对危险关注的是资产收益与某一基准(比方某个市场指数或投资组合)相比拟的跟踪误差。

市场危险也能够依照与经济和金融变量(比方,利率、股票指数)的关联性分为间接危险和间接危险:间接危险指的是与这些基准经济金融变量线性相关的危险(比方债券、股票、期货),而间接危险则是与这些变量有非线性关联成分的危险(比方,期权、简单衍生品)。

度量市场危险目前最罕用的工具是在险价值(Value at Risk, VaR)。

VaR的定义与计算方法

VaR度量的是在一段时间内某种置信水平下某危险资产的可能损失。比方,某个投资组合在95%置信水平下的日度VaR是10万元,示意在任何交易日,该资产的损失只有5%的可能会超过10万元。

VaR在金融机构中应用十分广泛,很多机构设置外部VaR进行止损,如果某天损失超过外部VaR,就须要马上清空仓位进行止损。

正态分布法

正态分布法假如收益率遵从正态分布,使用矩预计能够简略求得:

此时所求的在置信水平下的VaR就是: 

例 假如某银行的风险管理部门心愿以正态分布法计算日度的VaR,其资产的标准差为1.4%,且资产以后市值为5300万元,请计算其95%置信水平下的VaR。

答: 规范正态的下5%分位点为-1.65,则其收益率的VaR是-1.65×1.4%=-2.31%,其总资产的VaR就等于2.31%×5300万元=122430元,即单日损失超过122430元的可能性仅有5%。

因为日度的标准差能够简略的通过变换来失去月度、季度或是年度的标准差,在正态分布法的框架下,VaR也能够由此进行变换,失去其余期限情况下的VaR:

日度损失换算成年度则是

例:以R编程实现正态分布法十分简便,以HS300指数2014年的日数据为例,其99%置信水平下的单日VaR能够通过以下一段R代码来计算。

首先画出HS300指数在2014年的时序图和日收益率图,其R代码和图表如下:

HS300date<as.Date(HS30$e)将导入数据中的日期辨认为日期格局的序列

n<-now(HS0)  #计算样本的观测数

re<log(HS300$close\[2:n\]/HS300$close\[1:(n-1)\]) #计算日收益率

par(fro=c(1,2)) 将图表工作辨别为2列画图区

plt(HS300dte,HS00$close,typ='l',col'b,xlab='日期', ylab='收益率')  #画出日收盘价和日收益率的时序图

 

而后针对收益率序列预计其均值和方差,并计算VaR:

   #正态分布法



alha<-0.99  #设定置信水平



s0<-HS30$cse\[n\]  #设定初始资产价值



m-mean(e)  #计算均值



sgma-sd(e)  #计算标准差



daR<-(musiga*qorm(alpa,0,1))  #计算每日VaR



VaR<-\*sigma\*qnormalph,0,1)*qrt(52)  #计算全年VaR,假如日收益率为0.

最终的计算结果为,在99%置信水平下,持有HS300股指的每日最大可能损失2.64%,在2014年年末预计明年最大可能损失为1542.94点。

针对某些衍生品或投资组合,如果其资产价值与某个危险因子呈线性关系,也能够通过正态分布法来计算VaR,此时该办法称为Delta-Normal法:

 

厚尾__散布法

理论中尽管正态分布法应用最多,但有时也须要思考到收益率散布不是正态的情景。事实上,资产收益率在实证中曾经被发现大多数时候有尖峰厚尾的景象,即尾部的散布密度较正态分布要大,从而导致理论收益散布的下分位点大于正态分布的分位点。此时就须要思考采纳一些对于厚尾散布有所度量的散布。

Weibull散布能够对于厚尾性质有所度量。当然其余类型的如Beta散布,__对数正态、Gumbel散布等也能够度量厚尾,具体的思路和计算方法与此雷同,这里次要以Weibull散布为例进行介绍。Weibull散布密度函数模式如下:

Weibull散布函数要求随机变量大于0,理论中能够通过指数变换失去。应用这些厚尾散布预计收益率的散布时,大多数采纳极大似然预计法,用R中的mle函数或者optim函数能够很不便地实现。同样思考例6.2中的HS300指数日度数据,其采纳Weibull散布法计算VaR的R代码如下:

#weibull散布法

rdata<-ex(re)  #将收益率数据指数化,使其放弃大于0

lgbull<untion(params){   #写出对数似然函数

  labda-pram\[1\]  #规模参数(scale parameter)

  k<-aram\[2\]  #形态参数 (shpe araete)



  for(i in 1:n){    #用循环计算对数似然函数之和lgw<lg+log(k/lmba)((reata\[/labda(k-1)*exp-(reata\[i\]labd)^k))



xle<-otimc(1,),lgwbul,ethod  BFS,contlist(nscal=-1))  #用优化函数求解最大值,初始参数设都是1

ambda<-xme$par\[1\]  #求得规模参数

k<-ml$par\[2\]   #求得形态参数

dVaR<-lg(qeibul(1-alpa,k,ambda))  #求解失去散布的上1%分位点

Weibull散布法失去的99%置信水平下每日最大可能损失是5.59%,比正太散布得出的__VaR__高得多,体现了Weibull散布对于尾部和极其危险给予了更大的器重,显得更加激进。

历史数据排序法

历史数据排序法非常简单,只须要将历史的收益率序列依照升序排列,假如序列长度为n,设与n*5%往上最靠近的整数为K,则95%置信水平的VaR就是第K个收益率序列值。

例 假如你资产的初始价值为1亿元,你将最近100天的每日收益率从低到高排序,最低的6个收益率如下:

-0.0101,-0.0096,-0.0034,-0.0025,-0.0019,-0.0011

则此资产在95%置信水平下的VaR为0.0019×1亿=19万元。

有时并不会往上取与n*5%最近的整数,而是将最靠近此数值的两个收益率求均匀来失去更精确的VaR。排序在R中也能够简略实现,同样以HS300指数为例,其代码如下:

#历史数据排序法

    re<sor(redecresin=T)  #按降序排列

orer<trunc(*alha)  #求取99%分位点所批示的序号的整数局部



if(nrde==n){aR<-sr\[n\]}else{

  da<-(sre\[rder\]+sener\])/2  #对该序号四周的2个值求均匀

}

  最初计算失去在99%置信水平下,每日最大可能损失为2.58%,略小于正态分布法失去的VaR。

核密度估计法

核密度估计法是统计中罕用的预计散布函数序列值的非参数办法,其根本的算法模式是:

R中有专门进行核密度估计的包Kernsmooth.同样以HS300指数日度数据为例,以核密度办法计算VaR的R代码如下:

常见的核函数有高斯核、平均核、三角函数核等等,咱们以高斯核为例讲述这类办法,高斯核函数就是规范正态分布密度函数:

求得核密度函数序列之后,就能够通过对收益率升序排列之后的核密度函数累加,当累加值达到5%时,选取其左近的两个收益率平均值作为95%置信水平的VaR估计值。

 R中有专门进行核密度估计的包Kernsmooth.同样以HS300指数日度数据为例,以核密度办法计算VaR的R代码如下:

#核密度估计法

ds<-density(re,w = "nrd0", djust= 1,

            keel = c("gaussn",n=1000)  #计算出核密度函数,核密度函数的观测数设定为1000,应用的是Gaussian核。

cumy<-c(0,1000)

for(i in 1:1000){umy\[\]<-sum(dsy\[1i\])*ds$} #计算出累积密度函数函数值,其中ds$bw是核密度估计时所应用的窗宽

for(i in 1:1000){ifcmy\[i<(-alpha){node<-i}} #找出最初一个累积密度函数低于1%的序号

dVR-(ds$x\[noder\](cum\[norder+\]-1+alp)+dsxnordr+1(1-ala-cumy\[e\]))(umy\[rer+-cuyorde\]) #用插值法找出核密度估计出的观测序列的上1%分位点。

 最初计算出的99%置信水平下,每日最大可能损失值为4.96%,远大于正态分布法所失去的数值,与Weibull散布法得出的数值较为靠近。

混合工夫序列加权法

混合工夫序列加权法也称为Hybrid办法,是一种半参数的办法。其根本思维是对于近期产生的价格变动赋予更大的权重,但须要留神的是,并不是在收益率上间接赋权(这可能扭转收益率的原始数值),而是对收益率在历史数据排序法中的排序赋权。其根本算法步骤如下

步骤1:对于收益率序列给出其权重序列:

其中lamda__是进化参数,取值在0和1之间,常见的取值有0.96,0.97,0.99等。如此最近一期的权重最大。

  步骤2:对收益率升序排列

  步骤3:将从低到高的收益率序列对应的权重累加,若累加值达到所需的显著性程度,比方5%,则能够通过线性插值法计算出对应的VaR。

 

表中0.05位于排序1和2之间的收益率,即-4.7%和-4.1%之间,则能够应用线性插值法计算VaR=(0.05-0.0391)/(0.0736-0.0391)×(-4.1%)+(0.0736-0.05)/(0.0736-0.0391)×(-4.7%)=-4.51%,即利用混合工夫加权法得出的95%置信水平下的VaR是4.51%。

混合工夫加权法也能够通过R简略实现,以HS300指数日度数据为例,其R代码如下:

   #混合工夫加权法

weight-ep(0,n)  #计算出每个收益率的权重,间隔以后越近的观测权重愈大。

data<-sa\[oere,dreing=F),\]  #通过对数据框的排序失去升序的收益率及其对应的权重

cumweght<-rep(0,n) #用循环计算累积权重,并求出第一个超过1-alpha的序号

              if(cumweight\[1\]>1-alpha){norder<-1} #当第一个就超过了1-alpha,就须要间接令序号等于1.

  if(cmweght\[i\]<1-lha){noder-i}}

ifnorer>1){   #用插值法计算每日VaR

dVaR<-(kata$r\[nordr\]*(cmeigorr+1-+aha)+da$enorer+\]*1-pa-cuweit\[order\])/(cuwig\[nrde1\]-cumweght\[norder\])

}else{VaR-kdtae\[1\]}

计算失去最小的日收益对应的权重曾经大于1%,故而抉择最小的日收益作为混合工夫加权法的VaR,即99%置信水平下每日最大可能损失为4.59%。混合工夫加权的长处在于不扭转原始数据,所求得的VaR必然是原始数据或其线性组合。如果置信度设为95%,从新运行程序失去每日的最大可能损失为2.19%。

蒙特卡罗模拟法

之前介绍的这些办法都是在历史数据充沛,且资产构造自身比较简单的状况下才比拟无效的VaR计算方法。当资产构造变得复杂,比方有简单的衍生产品,或资产价格变动的历史数据有余,或者须要思考更简单更严格的价格变动过程时,就须要应用随机模仿的办法来确定价格变动的过程和VaR。

       最简略的MonteCarlo模仿方程就是以正态分布来模仿收益率的序列。在假如均值和稳定率已知的情景下,考查收益率的可能变动程度:

VaR的回测

在学习VaR的回测办法之前,有必要温习一下假设检验的基本原理。假设检验的根本逻辑是:小概率事件不可能产生。若在原假如下,小概率事件产生了,则能够狐疑原假如不成立,由此回绝原假如。

例题: VaR的滚动计算与回测:从中证800中任选一只股票,选定2013年至今的日度收盘价序列为钻研样本,以90天为窗宽,以正态分布法滚动计算日度95%VaR,并画出收盘价时序图和VaR预测的最坏变动图进行比照。并以样本外一天是否超过VaR的次数来回测VaR。

编程的要点如下:

输出项:中证800的股票成分向量;取数据的办法:随机抉择一只股票后,用quantmod包的getSymbols函数取数据。

次要算法:产生随机数并判断上市工夫是否早于2013年;依据取出来的时序数据计算收益率,并以每90天计算一个VaR,共n-90个VaR,能够回测n-91次。

输入项:收益率和VaR的时序图;VaR回测中损失超额的次数和断定后果。

R代码如下:

coe1-sust(zz800$ID\[sn\],1,2)

code2<-sbst(zz80$ID\[sn\],3,8)



close<-zdata\[,4\]



### VaR



a



re<-log(close)-log(lag(close))





# tdate<-NULL

len<-90









for(i in 1:(n-len-1)){

  mu-mea(re\[(i+1:(i+len)\])

  

  sigma<-sd(re\[(i+1):(i+len)\])



  dva\[i\]<-(m-sigma*qnorm(-alpha0,1))



  if(re\[i+1+le\]<dvar\[i\]bcktest<-backtet+1}#次日收益低于昨天的VaR就记录一次损失超出事件





backalpha<-0.05



cvale<-qnom(bakapha-2-len,lp

if(backtes>cvalue)bkreult<-'reject'}else{bkresult'acept'} #断定是否承受VaR的计算结果





##将VaR的计算结果所显示的最低可承受价格与当天的理论价格画在一张图表上

plo.ts(aiypice)

 lines(Vaprdic,cl='red')

 后果示例:

自测题:

从中证800中任选一只股票,选定2012年至今的日度收盘价序列为钻研样本,以60天为窗宽,以核密度估计法滚动计算日度95%VaR,并画出收盘价时序图和VaR预测的最坏变动图进行比照。并以样本外一天是否超过VaR的次数来回测VaR,断定VaR的计算是否正当。

 信用风险与分类模型

信用风险指的是在金融交易中,由对手方可能的守约带来的危险。信用事件能够广义地定义为债券的守约(Default on a bond),即债券发行机构无奈领取承诺的利息领取或本金偿还, 但狭义的来说,信用风险的变动就能够被称作信用事件。

信用风险其实蕴含了很多维度的危险,其变动常常是难以预计的,但在商业社会中,信用风险往往具备双向性,其变动的形式通常遵从下图所示的模式:

信用风险计量有如下要害指标:

守约概率(probability of default, PD):客户在肯定工夫内守约的可能性,对应于客户信用评级,个别将守约概率转换为客户的信用评级。

守约损失率(loss given default, LGD):守约产生时危险裸露的损失水平,对应于债项评级。

危险裸露(exposure at default, EAD):守约产生时可能产生损失的贷款额。

守约概率是指债务人将来产生守约的可能性大小,取得守约概率最广泛的办法是依据一组具备雷同危险特色的债务人的守约历史纪录,计算产生守约的比率,作为相似债务人将来守约概率的预计。PD由债务人主体的信用程度决定,所以,PD罕用于对公司或其余主体进行信用评级。以下是某评级机构的对公贷款的评级状况:

守约损失率(LGD)反映一旦债务人守约将给债权人造成损失的重大水平,计算方法是守约后损失的金额与守约前总的危险头寸裸露之比。LGD决定了贷款回收的水平,LGD=1-回收率。对于同一债务人,不同的交易可能具备不同的LGD。对于同一债务人的两笔贷款,如果一笔提供了抵押品,而另一笔没有,那么前者的LGD将可能小于后者的LGD不仅受到债务人信用能力的影响,更受到交易的特定设计和合同的具体条款,如抵押、担保等的影响。依据贷款的不同,其LGD的散布状况的例子如下:

危险裸露(EAD)在不同的信用事件中有不同的定义:

1) 固定本金贷款 :EAD = 债项帐面价值+ 应收利息

2) 将来不确定款项(贷款承诺、循环额度等) : EAD = 已应用的额度+ 应收利息+ 未应用额度中预期提取金额

3) 衍生工具: EAD=市价+危险溢量

本课次要介绍的是用分类模型来辨认守约可能或预测PD的办法。分类模型的根本做法是,对于给定的一系列企业的指标(数据起源可能是许多同质企业,或者各类型的企业都有),而后以一段时间的考察期,察看企业是否产生守约,并以此考查期内的所有观测作为训练样本,就能够预计分类模型,之后再通过预计出的分类模型来判断一家新的企业是否会守约。根本的分类模型包含:线性判别分析、Logit模型、Probit模型、反对向量机、决策树、神经网络、Lasso回归等办法。

上面以Logit回归模型为例介绍应用分类模型法进行PD预测的次要步骤。

步骤1: 数据筹备

首先须要确定模型用于训练和验证的样本,例如,能够按70%和30%的比例随机抽取总体样本中的观测别离作为训练样本和验证样本;而后奇怪值和缺失值进行解决,常见的办法包含间接删除、中位数填充、插值法等等。间接删除是删除某个日期内呈现了指标缺失状况的企业观测,该办法虽简略,但有可能导致样本有余;中位数填充指的是用其余未缺失的指标值的中位数代替缺失值进行填充;插值法能够是通过指标的工夫序列变动来进行插值。

步骤2:变量构建

尽量收集全所有跟守约率无关的财务指标、宏观经济指标、行业景气指标和市场指标,比方针对财务报表,如下的一些财务比率数据就能够计算出来:

  • 经营流动–例如存货周转率、预售账款与销售老本的比率、等等

  • 资本构造–例如固定资产占总资产比率、流动债务(current debt)占总债权的比率、等等

  • 债权偿还能力–利息比率(利息支出/总收入)、总债权/总资产、等等

  • 杠杆–资产负债率(总负债/总资产)、总负债/股东权益、等等

  • 流动性–疾速比率((现金+应收款)/流动负债)、现金比率(现金及现金等价物/流动负债)、等等

  • 盈利性–利润率、资本回报率、等等

而宏观经济指标如工业增加值增速、CPI、PPI、PMI等也能够收集起来。

步骤3:模型建设

经典的Logit回归模型的模式是:

该模型次要包含3个局部:

  1. 随机性局部:一个二元反应变量y,y = 1 or 0 ,即事件可能产生或不会产生。对于银行评级而言,y = 1即指守约事件,y = 0则为非守约事件。咱们关注的是“y = 1”呈现的概率,用P(y=1) 示意。

  2. 系统性局部:线性预测值在PD预测中,财务因素多为连续变量,而一些对于企业的定性数据绝大多数转化为非连续变量。

  3. 关联函数:关联函数可能将反应变量Y的随机性局部和系统性局部分割起来。Logit回归法中应用的关联函数为经典分割函数,自变量P的经典分割函数(logit(P))是某一事件产生机率的对数,即logit(P) = log(P/(1 − P))

最初,各个主模型的PD后果通过Logit回归导出:

 

一般来说,在PD预测公式中会用到4到8个财务因素,而可能用到的定性因素也在4个左右。

步骤4:模型评估

在将PD预测进去之后,其实模型的分类工作就根本实现,能够假如PD超过一个阈值的观测将会产生守约,而后与理论数据(验证样本)比照,来评估模型的预测成果。常见的评估指标包含简略的基于假设检验的Neyman-Pearson准则,以及ROC曲线。

Neyman-Pearson准则指的是模型的第一类谬误和第二类谬误应该满足肯定的条件。第一类谬误(Type I Error)指的是将守约企业误判为不守约的企业,第二类谬误(Tyep II Error)指的是将不守约的企业误判为守约企业。Neyman-Pearson准则要求,第一类错误率和第二类错误率应该满足如下的关系式:

 接管操作特色曲线(receriver operating characteristic, ROC): ROC曲线及AUROC系数次要用来测验模型对客户进行正确排序的能力。ROC曲线形容了在肯定累计失常客户比例下的累计守约客户的比例,模型的别离能力越强,ROC曲线越往左上角凑近。AUROC系数示意ROC曲线下方的面积。AUROC系数越高,模型的危险辨别能力越强。在下图6.8中,AUROC系数示意ROC曲线下方的面积。

ROC曲线下面积的大小能够作为模型预测正确性高下的评判规范。即AUROC系数越大,示意该模型的辨别能力越好。

除了采纳Logit模型分类之外,罕用的分类办法还有probit模型、最近邻办法、反对向量机、神经网络等。

Probit模型

Probit模型与Logit模型十分相似,只是关联函数变成了正态分布,即

如下所示的表格是某个须要分类的样本的训练集和测试集(只显示前27行)。该样本是某互联网企业注册用户的信用调查表,考察了用户的年龄、性别、支出、住房、寓居工夫等情况,同时收集了领取账户等级、领取金额等数据,并且依照其之前的守约状况,将客户分成了好客户和坏客户。总的客户数量有3万个,其中坏客户(有过明确守约状况的)仅有688个。将前15000个作为训练样本,后15000个作为须要分类验证的样本。

那么针对该样本,先在Excel中将有序数据全副用自然数代替之后,再应用Logit回归进行分类的R代码如下:

#设定工作空间门路

#读取数据,并清洁数据(将缺失简略记作0)

fdata<-rea.sv('reitdtacsv'headT,strngAsFctrs=F)



m-roud(n/2)tdata-fdat\[1:m\];vdaa<-fat\[(m+1):n,\] #分出训练样本和验证样本

#应用训练样本预计Logit模型

 模型预计出的后果如下:

k<-predit.glm(,vat,type="resone",se.fit=T) #用预计出的模型拟合验证样本



###计算预测状况表格

 maa <- data.frame(pdft = prdited, df = vta$deflt) #预测值和实在值表格



nr1<-0; nr2<-0  #令原假如是客户不守约,统计第一类谬误和第二类谬误的次数



Ptble<-rbind(Pefult,Pnefult)  #预测体现

##NP值计算

r1<-nr1/sum(ata$df==0)  #第一类错误率

r2<-nr2/sum(mdt$df)  #第二类错误率

NP<-r1/(1-r2)  #NP值



###画ROC曲线



#计算命中率和误警率

HR<-sum(pft==vatadefultpt==1)/sum(vda$deft)



}

plot(TFR, THR, o") #画出ROC曲线

 

例子: 从中证800中任意抽取一只股票,选取2012年至今的数据,构建如下指标,每60天的VaR(置信水平75%),每60天的稳定率,每60天的累积交易量,每60天的离差(最大减最小),而后计次日的收益率低于昨日收盘算进去的VaR为守约事件。试应用如下的Logit模型拟合守约概率: 

以2012年至2014年的数据为样本内,2015年数据为样本外数据。请报告Logit模型的样本内回归后果和样本外分类成果。

编程的代码如下:

##提取数据中的收盘价、交易量、最高价和最低价序列

cose-zdata\[,4\]

volm-zdata\[,5\]

high<-zdata\[,2\]

lo<-zdata\[,3\]

M15<-length(clos) #计算2015年的日期数



### VaR



defaut<-rep(0,n-len-1)

pre<-rep(0,n-len-1)

fori in 1:(n-len-1)){

  mu<-mean(re\[(i+1):(i+len)\]) 



 range\[i\]<-log(high\[ (i+len)\])-log(low\[(i+len)\]) 

 

}





indata<-tdata\[1:(N-M15),\]

outdata<-tdata\[(N-M15+1):N,\]



##logit 模型

km<-predict.glm(pm,outdata,type="response",se.fit=T)

predicted<-km$fit

###计算预测状况表格

mdata <- data.frame(pdft = m$fit, df = outa$deault) #预测值和实在值表格

nr1<-0; nr2<-0  #令原假如是客户不守约,统计第一类谬误和第二类谬误的次数



Ptable<-rbind(Pfalt,Pndefault)  #预测体现



##NP值计算

r1<-nr1/sum(mdata$df==0)  #第一类错误率

r2<-nr2/sum(mdata$df)  #第二类错误率

NP<-r1/(1-r2)  #NP值



##ROC 



plot(TFR,THR,type='l',main="ROCcurve",xlab="FalseAlarmRatio",ylab="Hit Ratio")

自测题

从中证800中随机抉择50只股票(报告这50只股票的代码),选取其2012年至今的数据进行如下的计算。

  1. 采纳前3支选出来的股票和50支股票的等权重价格指数序列,以60天为工夫窗口,计算95%置信水平下的单日VaR序列。画出这些VaR序列的时序图(4幅图)。

  2. 在5%的显著性程度下,对下面计算出的VaR序列进行回测,报告回测的后果(违反次数,是否承受),并剖析个股和指数在VaR取值和回测上的差异性。对于回测不合格的股票或等权重指数,画出其回测日的收盘价和对应的VaR预测出的最坏可承受价格曲线,剖析哪些交易日容易呈现低于VaR预测的最坏价格的情景。

  3. 对于这50支股票,以90天为窗口计算最初选出来的3支股票的75%置信水平的单日VaR,并将收盘价低于VaR预测的最坏价格水平的交易日记为守约日,其余日期为不守约日。采纳Logit模型,以昨日对数交易量、最近90天稳定率、昨日价格振幅为因子,以2012至2013年的数据为训练样本,2014至今的数据为预测样本,对守约概率进行拟合和预测。报告拟合后果(Logit模型预计后果)和预测成果(包含NP值和ROC曲线)。


 

最受欢迎的见解

1.R语言基于ARMA-GARCH-VaR模型拟合和预测实证钻研

2.R语言时变参数VAR随机模型

3.R语言预计时变VAR模型工夫序列的实证钻研

4.R语言基于ARMA-GARCH过程的VAR拟合和预测

5.GARCH(1,1),MA以及历史模拟法的VaR比拟

6.R语言用向量自回归(VAR)进行经济数据脉冲响应

7.R语言实现向量主动回归VAR模型

8.R语言随机搜寻变量抉择SSVS预计贝叶斯向量自回归(BVAR)模型

9.R语言VAR模型的不同类型的脉冲响应剖析

评论

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

这个站点使用 Akismet 来减少垃圾评论。了解你的评论数据如何被处理