关于数据挖掘:R语言VaR市场风险计算方法与回测用Logit逻辑回归Probit模型信用风险与分类模型

0次阅读

共计 11101 个字符,预计需要花费 28 分钟才能阅读完成。

原文链接:http://tecdat.cn/?p=27530 

市场危险指的是由金融市场中资产的价格上涨或价格稳定减少所导致的可能损失。

市场危险蕴含两种类型:绝对危险和相对危险。相对危险关注的是整个资产收益的稳定率,而绝对危险关注的是资产收益与某一基准(比方某个市场指数或投资组合)相比拟的跟踪误差。

市场危险也能够依照与经济和金融变量(比方,利率、股票指数)的关联性分为间接危险和间接危险:间接危险指的是与这些基准经济金融变量线性相关的危险(比方债券、股票、期货),而间接危险则是与这些变量有非线性关联成分的危险(比方,期权、简单衍生品)。

度量市场危险目前最罕用的工具是在险价值(Value at Risk, VaR)。

VaR 的定义与计算方法

VaR 度量的是在一段时间内某种置信水平下某危险资产的可能损失。比方,某个投资组合在 95% 置信水平下的日度 VaR 是 10 万元,示意在任何交易日,该资产的损失只有 5% 的可能会超过 10 万元。

VaR 在金融机构中应用十分广泛,很多机构设置外部 VaR 进行止损,如果某天损失超过外部 VaR,就须要马上清空仓位进行止损。

正态分布法

正态分布法假如收益率遵从正态分布,使用矩预计能够简略求得:

此时所求的在置信水平 下的 VaR 就是:

例 假如某银行的风险管理部门心愿以正态分布法计算日度的 VaR,其资产的标准差为 1.4%,且资产以后市值为 5300 万元,请计算其 95% 置信水平下的 VaR。

答:规范正态的下 5% 分位点为 -1.65,则其收益率的 VaR 是 -1.65×1.4%=-2.31%,其总资产的 VaR 就等于 2.31%×5300 万元 =122430 元,即单日损失超过 122430 元的可能性仅有 5%。

因为日度的标准差能够简略的通过变换来失去月度、季度或是年度的标准差,在正态分布法的框架下,VaR 也能够由此进行变换,失去其余期限情况下的 VaR:

日度损失换算成年度则是

例:以 R 编程实现正态分布法十分简便,以 HS300 指数 2014 年的日数据为例,其 99% 置信水平下的单日 VaR 能够通过以下一段 R 代码来计算。

首先画出 HS300 指数在 2014 年的时序图和日收益率图,其 R 代码和图表如下:

HS300date<as.Date(HS30$e)将导入数据中的日期辨认为日期格局的序列

n<-now(HS0)  #计算样本的观测数

re<log(HS300$close\[2:n\]/HS300$close\[1:(n-1)\]) #计算日收益率

par(fro=c(1,2)) 将图表工作辨别为 2 列画图区

plt(HS300dte,HS00$close,typ='l',col'b,xlab=' 日期 ', ylab=' 收益率 ')  #画出日收盘价和日收益率的时序图

 

而后针对收益率序列预计其均值和方差,并计算 VaR:

   #正态分布法



alha<-0.99  #设定置信水平



s0<-HS30$cse\[n\]  #设定初始资产价值



m-mean(e)  #计算均值



sgma-sd(e)  #计算标准差



daR<-(musiga*qorm(alpa,0,1))  #计算每日 VaR



VaR<-\*sigma\*qnormalph,0,1)*qrt(52)  #计算全年 VaR,假如日收益率为 0.

最终的计算结果为,在 99% 置信水平下,持有 HS300 股指的每日最大可能损失 2.64%,在 2014 年年末预计明年最大可能损失为 1542.94 点。

针对某些衍生品或投资组合,如果其资产价值与某个危险因子呈线性关系,也能够通过正态分布法来计算 VaR,此时该办法称为 Delta-Normal 法:

 

厚尾__散布法

理论中尽管正态分布法应用最多,但有时也须要思考到收益率散布不是正态的情景。事实上,资产收益率在实证中曾经被发现大多数时候有尖峰厚尾的景象,即尾部的散布密度较正态分布要大,从而导致理论收益散布的下分位点大于正态分布的分位点。此时就须要思考采纳一些对于厚尾散布有所度量的散布。

Weibull 散布能够对于厚尾性质有所度量。当然其余类型的如 Beta 散布,__对数正态、Gumbel 散布等也能够度量厚尾,具体的思路和计算方法与此雷同,这里次要以 Weibull 散布为例进行介绍。Weibull 散布密度函数模式如下:

Weibull 散布函数要求随机变量大于 0,理论中能够通过指数变换失去。应用这些厚尾散布预计收益率的散布时,大多数采纳极大似然预计法,用 R 中的 mle 函数或者 optim 函数能够很不便地实现。同样思考例 6.2 中的 HS300 指数日度数据,其采纳 Weibull 散布法计算 VaR 的 R 代码如下:

#weibull 散布法

rdata<-ex(re)  #将收益率数据指数化,使其放弃大于 0

lgbull<untion(params){   #写出对数似然函数

  labda-pram\[1\]  #规模参数(scale parameter)

  k<-aram\[2\]  #形态参数(shpe araete)for(i in 1:n){#用循环计算对数似然函数之和 lgw<lg+log(k/lmba)((reata\[/labda(k-1)*exp-(reata\[i\]labd)^k))



xle<-otimc(1,),lgwbul,ethod  BFS,contlist(nscal=-1))  #用优化函数求解最大值,初始参数设都是 1

ambda<-xme$par\[1\]  #求得规模参数

k<-ml$par\[2\]   #求得形态参数

dVaR<-lg(qeibul(1-alpa,k,ambda))  #求解失去散布的上 1% 分位点

Weibull 散布法失去的 99% 置信水平下每日最大可能损失是 5.59%,比正太散布得出的__VaR__高得多,体现了 Weibull 散布对于尾部和极其危险给予了更大的器重,显得更加激进。

历史数据排序法

历史数据排序法非常简单,只须要将历史的收益率序列依照升序排列,假如序列长度为 n,设与 n *5% 往上最靠近的整数为 K,则 95% 置信水平的 VaR 就是第 K 个收益率序列值。

例 假如你资产的初始价值为 1 亿元,你将最近 100 天的每日收益率从低到高排序,最低的 6 个收益率如下:

-0.0101,-0.0096,-0.0034,-0.0025,-0.0019,-0.0011

则此资产在 95% 置信水平下的 VaR 为 0.0019×1 亿 =19 万元。

有时并不会往上取与 n *5% 最近的整数,而是将最靠近此数值的两个收益率求均匀来失去更精确的 VaR。排序在 R 中也能够简略实现,同样以 HS300 指数为例,其代码如下:

# 历史数据排序法

    re<sor(redecresin=T)  #按降序排列

orer<trunc(*alha)  #求取 99% 分位点所批示的序号的整数局部



if(nrde==n){aR<-sr\[n\]}else{da<-(sre\[rder\]+sener\])/2  #对该序号四周的 2 个值求均匀

}

  最初计算失去在 99% 置信水平下,每日最大可能损失为 2.58%,略小于正态分布法失去的 VaR。

核密度估计法

核密度估计法是统计中罕用的预计散布函数序列值的非参数办法,其根本的算法模式是:

R 中有专门进行核密度估计的包 Kernsmooth. 同样以 HS300 指数日度数据为例,以核密度办法计算 VaR 的 R 代码如下:

常见的核函数有高斯核、平均核、三角函数核等等,咱们以高斯核为例讲述这类办法,高斯核函数就是规范正态分布密度函数:

求得核密度函数序列之后,就能够通过对收益率升序排列之后的核密度函数累加,当累加值达到 5% 时,选取其左近的两个收益率平均值作为 95% 置信水平的 VaR 估计值。

 R 中有专门进行核密度估计的包 Kernsmooth. 同样以 HS300 指数日度数据为例,以核密度办法计算 VaR 的 R 代码如下:

# 核密度估计法

ds<-density(re,w = "nrd0", djust= 1,

            keel = c("gaussn",n=1000)  #计算出核密度函数,核密度函数的观测数设定为 1000,应用的是 Gaussian 核。cumy<-c(0,1000)

for(i in 1:1000){umy\[\]<-sum(dsy\[1i\])*ds$} #计算出累积密度函数函数值,其中 ds$bw 是核密度估计时所应用的窗宽

for(i in 1:1000){ifcmy\[i<(-alpha){node<-i}} #找出最初一个累积密度函数低于 1% 的序号

dVR-(ds$x\[noder\](cum\[norder+\]-1+alp)+dsxnordr+1(1-ala-cumy\[e\]))(umy\[rer+-cuyorde\]) #用插值法找出核密度估计出的观测序列的上 1% 分位点。

 最初计算出的 99% 置信水平下,每日最大可能损失值为 4.96%,远大于正态分布法所失去的数值,与 Weibull 散布法得出的数值较为靠近。

混合工夫序列加权法

混合工夫序列加权法也称为 Hybrid 办法,是一种半参数的办法。其根本思维是对于近期产生的价格变动赋予更大的权重,但须要留神的是,并不是在收益率上间接赋权(这可能扭转收益率的原始数值),而是对收益率在历史数据排序法中的排序赋权。其根本算法步骤如下

步骤 1:对于收益率序列给出其权重序列:

其中 lamda__是进化参数,取值在 0 和 1 之间,常见的取值有 0.96,0.97,0.99 等。如此最近一期的权重最大。

  步骤 2:对收益率升序排列

  步骤 3:将从低到高的收益率序列对应的权重累加,若累加值达到所需的显著性程度,比方 5%,则能够通过线性插值法计算出对应的 VaR。

 

表中 0.05 位于排序 1 和 2 之间的收益率,即 -4.7% 和 -4.1% 之间,则能够应用线性插值法计算 VaR=(0.05-0.0391)/(0.0736-0.0391)×(-4.1%)+(0.0736-0.05)/(0.0736-0.0391)×(-4.7%)=-4.51%,即利用混合工夫加权法得出的 95% 置信水平下的 VaR 是 4.51%。

混合工夫加权法也能够通过 R 简略实现,以 HS300 指数日度数据为例,其 R 代码如下:

   #混合工夫加权法

weight-ep(0,n)  #计算出每个收益率的权重,间隔以后越近的观测权重愈大。data<-sa\[oere,dreing=F),\]  #通过对数据框的排序失去升序的收益率及其对应的权重

cumweght<-rep(0,n) #用循环计算累积权重,并求出第一个超过 1 -alpha 的序号

              if(cumweight\[1\]>1-alpha){norder<-1} #当第一个就超过了 1 -alpha,就须要间接令序号等于 1.

  if(cmweght\[i\]<1-lha){noder-i}}

ifnorer>1){   #用插值法计算每日 VaR

dVaR<-(kata$r\[nordr\]*(cmeigorr+1-+aha)+da$enorer+\]*1-pa-cuweit\[order\])/(cuwig\[nrde1\]-cumweght\[norder\])

}else{VaR-kdtae\[1\]}

计算失去最小的日收益对应的权重曾经大于 1%,故而抉择最小的日收益作为混合工夫加权法的 VaR,即 99% 置信水平下每日最大可能损失为 4.59%。混合工夫加权的长处在于不扭转原始数据,所求得的 VaR 必然是原始数据或其线性组合。如果置信度设为 95%,从新运行程序失去每日的最大可能损失为 2.19%。

蒙特卡罗模拟法

之前介绍的这些办法都是在历史数据充沛,且资产构造自身比较简单的状况下才比拟无效的 VaR 计算方法。当资产构造变得复杂,比方有简单的衍生产品,或资产价格变动的历史数据有余,或者须要思考更简单更严格的价格变动过程时,就须要应用随机模仿的办法来确定价格变动的过程和 VaR。

       最简略的 MonteCarlo 模仿方程就是以正态分布来模仿收益率的序列。在假如均值和稳定率已知的情景下,考查收益率的可能变动程度:

VaR 的回测

在学习 VaR 的回测办法之前,有必要温习一下假设检验的基本原理。假设检验的根本逻辑是:小概率事件不可能产生。若在原假如下,小概率事件产生了,则能够狐疑原假如不成立,由此回绝原假如。

例题:VaR 的滚动计算与回测:从中证 800 中任选一只股票,选定 2013 年至今的日度收盘价序列为钻研样本,以 90 天为窗宽,以正态分布法滚动计算日度 95%VaR,并画出收盘价时序图和 VaR 预测的最坏变动图进行比照。并以样本外一天是否超过 VaR 的次数来回测 VaR。

编程的要点如下:

输出项:中证 800 的股票成分向量;取数据的办法:随机抉择一只股票后,用 quantmod 包的 getSymbols 函数取数据。

次要算法:产生随机数并判断上市工夫是否早于 2013 年;依据取出来的时序数据计算收益率,并以每 90 天计算一个 VaR,共 n -90 个 VaR,能够回测 n -91 次。

输入项:收益率和 VaR 的时序图;VaR 回测中损失超额的次数和断定后果。

R 代码如下:

coe1-sust(zz800$ID\[sn\],1,2)

code2<-sbst(zz80$ID\[sn\],3,8)



close<-zdata\[,4\]



### VaR



a



re<-log(close)-log(lag(close))





# tdate<-NULL

len<-90









for(i in 1:(n-len-1)){mu-mea(re\[(i+1:(i+len)\])

  

  sigma<-sd(re\[(i+1):(i+len)\])



  dva\[i\]<-(m-sigma*qnorm(-alpha0,1))



  if(re\[i+1+le\]<dvar\[i\]bcktest<-backtet+1}# 次日收益低于昨天的 VaR 就记录一次损失超出事件





backalpha<-0.05



cvale<-qnom(bakapha-2-len,lp

if(backtes>cvalue)bkreult<-'reject'}else{bkresult'acept'} #断定是否承受 VaR 的计算结果





## 将 VaR 的计算结果所显示的最低可承受价格与当天的理论价格画在一张图表上

plo.ts(aiypice)

 lines(Vaprdic,cl='red')

 后果示例:

自测题:

从中证 800 中任选一只股票,选定 2012 年至今的日度收盘价序列为钻研样本,以 60 天为窗宽,以核密度估计法滚动计算日度 95%VaR,并画出收盘价时序图和 VaR 预测的最坏变动图进行比照。并以样本外一天是否超过 VaR 的次数来回测 VaR,断定 VaR 的计算是否正当。

 信用风险与分类模型

信用风险指的是在金融交易中,由对手方可能的守约带来的危险。信用事件能够广义地定义为债券的守约(Default on a bond),即债券发行机构无奈领取承诺的利息领取或本金偿还,但狭义的来说,信用风险的变动就能够被称作信用事件。

信用风险其实蕴含了很多维度的危险,其变动常常是难以预计的,但在商业社会中,信用风险往往具备双向性,其变动的形式通常遵从下图所示的模式:

信用风险计量有如下要害指标:

守约概率(probability of default, PD): 客户在肯定工夫内守约的可能性,对应于客户信用评级, 个别将守约概率转换为客户的信用评级。

守约损失率(loss given default, LGD): 守约产生时危险裸露的损失水平,对应于债项评级。

危险裸露(exposure at default, EAD): 守约产生时可能产生损失的贷款额。

守约概率是指债务人将来产生守约的可能性大小,取得守约概率最广泛的办法是依据一组具备雷同危险特色的债务人的守约历史纪录,计算产生守约的比率,作为相似债务人将来守约概率的预计。PD 由债务人主体的信用程度决定,所以,PD 罕用于对公司或其余主体进行信用评级。以下是某评级机构的对公贷款的评级状况:

守约损失率(LGD)反映一旦债务人守约将给债权人造成损失的重大水平,计算方法是守约后损失的金额与守约前总的危险头寸裸露之比。LGD 决定了贷款回收的水平,LGD=1-回收率。对于同一债务人,不同的交易可能具备不同的 LGD。对于同一债务人的两笔贷款,如果一笔提供了抵押品,而另一笔没有,那么前者的 LGD 将可能小于后者的 LGD 不仅受到债务人信用能力的影响,更受到交易的特定设计和合同的具体条款,如抵押、担保等的影响。依据贷款的不同,其 LGD 的散布状况的例子如下:

危险裸露(EAD)在不同的信用事件中有不同的定义:

1)固定本金贷款:EAD = 债项帐面价值 + 应收利息

2)将来不确定款项(贷款承诺、循环额度等):EAD = 已应用的额度 + 应收利息 + 未应用额度中预期提取金额

3)衍生工具:EAD= 市价 + 危险溢量

本课次要介绍的是用分类模型来辨认守约可能或预测 PD 的办法。分类模型的根本做法是,对于给定的一系列企业的指标(数据起源可能是许多同质企业,或者各类型的企业都有),而后以一段时间的考察期,察看企业是否产生守约,并以此考查期内的所有观测作为训练样本,就能够预计分类模型,之后再通过预计出的分类模型来判断一家新的企业是否会守约。根本的分类模型包含:线性判别分析、Logit 模型、Probit 模型、反对向量机、决策树、神经网络、Lasso 回归等办法。

上面以 Logit 回归模型为例介绍应用分类模型法进行 PD 预测的次要步骤。

步骤 1:数据筹备

首先须要确定模型用于训练和验证的样本,例如,能够按 70% 和 30% 的比例随机抽取总体样本中的观测别离作为训练样本和验证样本;而后奇怪值和缺失值进行解决,常见的办法包含间接删除、中位数填充、插值法等等。间接删除是删除某个日期内呈现了指标缺失状况的企业观测,该办法虽简略,但有可能导致样本有余;中位数填充指的是用其余未缺失的指标值的中位数代替缺失值进行填充;插值法能够是通过指标的工夫序列变动来进行插值。

步骤 2:变量构建

尽量收集全所有跟守约率无关的财务指标、宏观经济指标、行业景气指标和市场指标,比方针对财务报表,如下的一些财务比率数据就能够计算出来:

  • 经营流动–例如存货周转率、预售账款与销售老本的比率、等等

  • 资本构造–例如固定资产占总资产比率、流动债务(current debt)占总债权的比率、等等

  • 债权偿还能力–利息比率(利息支出 / 总收入)、总债权 / 总资产、等等

  • 杠杆–资产负债率(总负债 / 总资产)、总负债 / 股东权益、等等

  • 流动性–疾速比率((现金 + 应收款)/ 流动负债)、现金比率(现金及现金等价物 / 流动负债)、等等

  • 盈利性–利润率、资本回报率、等等

而宏观经济指标如工业增加值增速、CPI、PPI、PMI 等也能够收集起来。

步骤 3:模型建设

经典的 Logit 回归模型的模式是:

该模型次要包含 3 个局部:

  1. 随机性局部:一个二元反应变量 y,y = 1 or 0,即事件可能产生或不会产生。对于银行评级而言,y = 1 即指守约事件,y = 0 则为非守约事件。咱们关注的是“y = 1”呈现的概率,用 P(y=1) 示意。

  2. 系统性局部:线性预测值在 PD 预测中,财务因素多为连续变量,而一些对于企业的定性数据绝大多数转化为非连续变量。

  3. 关联函数:关联函数可能将反应变量 Y 的随机性局部和系统性局部分割起来。Logit 回归法中应用的关联函数为经典分割函数,自变量 P 的经典分割函数(logit(P))是某一事件产生机率的对数,即 logit(P) = log(P/(1 − P))

最初,各个主模型的 PD 后果通过 Logit 回归导出:

 

一般来说,在 PD 预测公式中会用到 4 到 8 个财务因素,而可能用到的定性因素也在 4 个左右。

步骤 4:模型评估

在将 PD 预测进去之后,其实模型的分类工作就根本实现,能够假如 PD 超过一个阈值的观测将会产生守约,而后与理论数据(验证样本)比照,来评估模型的预测成果。常见的评估指标包含简略的基于假设检验的 Neyman-Pearson 准则,以及 ROC 曲线。

Neyman-Pearson 准则指的是模型的第一类谬误和第二类谬误应该满足肯定的条件。第一类谬误(Type I Error)指的是将守约企业误判为不守约的企业,第二类谬误(Tyep II Error)指的是将不守约的企业误判为守约企业。Neyman-Pearson 准则要求,第一类错误率和第二类错误率应该满足如下的关系式:

 接管操作特色曲线(receriver operating characteristic, ROC):ROC 曲线及 AUROC 系数次要用来测验模型对客户进行正确排序的能力。ROC 曲线形容了在肯定累计失常客户比例下的累计守约客户的比例,模型的别离能力越强,ROC 曲线越往左上角凑近。AUROC 系数示意 ROC 曲线下方的面积。AUROC 系数越高,模型的危险辨别能力越强。在下图 6.8 中,AUROC 系数示意 ROC 曲线下方的面积。

ROC 曲线下面积的大小能够作为模型预测正确性高下的评判规范。即 AUROC 系数越大,示意该模型的辨别能力越好。

除了采纳 Logit 模型分类之外,罕用的分类办法还有 probit 模型、最近邻办法、反对向量机、神经网络等。

Probit 模型

Probit 模型与 Logit 模型十分相似,只是关联函数变成了正态分布,即

如下所示的表格是某个须要分类的样本的训练集和测试集(只显示前 27 行)。该样本是某互联网企业注册用户的信用调查表,考察了用户的年龄、性别、支出、住房、寓居工夫等情况,同时收集了领取账户等级、领取金额等数据,并且依照其之前的守约状况,将客户分成了好客户和坏客户。总的客户数量有 3 万个,其中坏客户(有过明确守约状况的)仅有 688 个。将前 15000 个作为训练样本,后 15000 个作为须要分类验证的样本。

那么针对该样本,先在 Excel 中将有序数据全副用自然数代替之后,再应用 Logit 回归进行分类的 R 代码如下:

# 设定工作空间门路

#读取数据,并清洁数据(将缺失简略记作 0)fdata<-rea.sv('reitdtacsv'headT,strngAsFctrs=F)



m-roud(n/2)tdata-fdat\[1:m\];vdaa<-fat\[(m+1):n,\] #分出训练样本和验证样本

#应用训练样本预计 Logit 模型

 模型预计出的后果如下:

k<-predit.glm(,vat,type="resone",se.fit=T) #用预计出的模型拟合验证样本



### 计算预测状况表格

 maa <- data.frame(pdft = prdited, df = vta$deflt) #预测值和实在值表格



nr1<-0; nr2<-0  #令原假如是客户不守约,统计第一类谬误和第二类谬误的次数



Ptble<-rbind(Pefult,Pnefult)  #预测体现

##NP 值计算

r1<-nr1/sum(ata$df==0)  #第一类错误率

r2<-nr2/sum(mdt$df)  #第二类错误率

NP<-r1/(1-r2)  #NP 值



### 画 ROC 曲线



#计算命中率和误警率

HR<-sum(pft==vatadefultpt==1)/sum(vda$deft)



}

plot(TFR, THR, o") #画出 ROC 曲线

 

例子:从中证 800 中任意抽取一只股票,选取 2012 年至今的数据,构建如下指标,每 60 天的 VaR(置信水平 75%),每 60 天的稳定率,每 60 天的累积交易量,每 60 天的离差(最大减最小),而后计次日的收益率低于昨日收盘算进去的 VaR 为守约事件。试应用如下的 Logit 模型拟合守约概率:

以 2012 年至 2014 年的数据为样本内,2015 年数据为样本外数据。请报告 Logit 模型的样本内回归后果和样本外分类成果。

编程的代码如下:

## 提取数据中的收盘价、交易量、最高价和最低价序列

cose-zdata\[,4\]

volm-zdata\[,5\]

high<-zdata\[,2\]

lo<-zdata\[,3\]

M15<-length(clos) #计算 2015 年的日期数



### VaR



defaut<-rep(0,n-len-1)

pre<-rep(0,n-len-1)

fori in 1:(n-len-1)){mu<-mean(re\[(i+1):(i+len)\]) 



 range\[i\]<-log(high\[ (i+len)\])-log(low\[(i+len)\]) 

 

}





indata<-tdata\[1:(N-M15),\]

outdata<-tdata\[(N-M15+1):N,\]



##logit 模型

km<-predict.glm(pm,outdata,type="response",se.fit=T)

predicted<-km$fit

### 计算预测状况表格

mdata <- data.frame(pdft = m$fit, df = outa$deault) #预测值和实在值表格

nr1<-0; nr2<-0  #令原假如是客户不守约,统计第一类谬误和第二类谬误的次数



Ptable<-rbind(Pfalt,Pndefault)  #预测体现



##NP 值计算

r1<-nr1/sum(mdata$df==0)  #第一类错误率

r2<-nr2/sum(mdata$df)  #第二类错误率

NP<-r1/(1-r2)  #NP 值



##ROC 



plot(TFR,THR,type='l',main="ROCcurve",xlab="FalseAlarmRatio",ylab="Hit Ratio")

自测题

从中证 800 中随机抉择 50 只股票(报告这 50 只股票的代码),选取其 2012 年至今的数据进行如下的计算。

  1. 采纳前 3 支选出来的股票和 50 支股票的等权重价格指数序列,以 60 天为工夫窗口,计算 95% 置信水平下的单日 VaR 序列。画出这些 VaR 序列的时序图(4 幅图)。

  2. 在 5% 的显著性程度下,对下面计算出的 VaR 序列进行回测,报告回测的后果(违反次数,是否承受),并剖析个股和指数在 VaR 取值和回测上的差异性。对于回测不合格的股票或等权重指数,画出其回测日的收盘价和对应的 VaR 预测出的最坏可承受价格曲线,剖析哪些交易日容易呈现低于 VaR 预测的最坏价格的情景。

  3. 对于这 50 支股票,以 90 天为窗口计算最初选出来的 3 支股票的 75% 置信水平的单日 VaR,并将收盘价低于 VaR 预测的最坏价格水平的交易日记为守约日,其余日期为不守约日。采纳 Logit 模型,以昨日对数交易量、最近 90 天稳定率、昨日价格振幅为因子,以 2012 至 2013 年的数据为训练样本,2014 至今的数据为预测样本,对守约概率进行拟合和预测。报告拟合后果(Logit 模型预计后果)和预测成果(包含 NP 值和 ROC 曲线)。


 

最受欢迎的见解

1.R 语言基于 ARMA-GARCH-VaR 模型拟合和预测实证钻研

2.R 语言时变参数 VAR 随机模型

3.R 语言预计时变 VAR 模型工夫序列的实证钻研

4.R 语言基于 ARMA-GARCH 过程的 VAR 拟合和预测

5.GARCH(1,1),MA 以及历史模拟法的 VaR 比拟

6.R 语言用向量自回归(VAR)进行经济数据脉冲响应

7.R 语言实现向量主动回归 VAR 模型

8.R 语言随机搜寻变量抉择 SSVS 预计贝叶斯向量自回归(BVAR)模型

9.R 语言 VAR 模型的不同类型的脉冲响应剖析

正文完
 0