乐趣区

关于人工智能:数据挖掘实践金融风控金融风控之贷款违约预测挑战赛上篇xgbootslightgbmCatboost等模型

数据挖掘实际(金融风控):金融风控之贷款守约预测挑战赛(上篇)[xgboots/lightgbm/Catboost 等模型]– 模型交融:stacking、blending

1. 赛题简介

赛题以金融风控中的集体信贷为背景,要求选手依据贷款申请人的数据信息预测其是否有守约的可能,以此判断是否通过此项贷款,这是一个典型的分类问题。通过这道赛题来疏导大家理解金融风控中的一些业务背景,解决理论问题,帮忙比赛新人进行自我练习、自我进步。

赛题以预测金融风险为工作,数据集报名后可见并可下载,该数据来自某信贷平台的贷款记录,总数据量超过 120w,蕴含 47 列变量信息,其中 15 列为匿名变量。为了保障较量的公平性,将会从中抽取 80 万条作为训练集,20 万条作为测试集 A,20 万条作为测试集 B,同时会对 employmentTitle、purpose、postCode 和 title 等信息进行脱敏。

较量地址:https://tianchi.aliyun.com/competition/entrance/531830/introd…

我的项目链接以及码源见文末

1.1 数据介绍

赛题以预测用户贷款是否守约为工作,数据集报名后可见并可下载,该数据来自某信贷平台的贷款记录,总数据量超过 120w,蕴含 47 列变量信息,其中 15 列为匿名变量。为了保障较量的公平性,将会从中抽取 80 万条作为训练集,20 万条作为测试集 A,20 万条作为测试集 B,同时会对 employmentTitle、purpose、postCode 和 title 等信息进行脱敏。

一般而言,对于数据在较量界面都有对应的数据详情介绍(匿名特色除外),阐明列的性质特色。理解列的性质会有助于咱们对于数据的了解和后续剖析。Tip: 匿名特色,就是未告知数据列所属的性质的特色列。

train.csv

  • id 为贷款清单调配的惟一信用证标识
  • loanAmnt 贷款金额
  • term 贷款期限(year)
  • interestRate 贷款利率
  • installment 分期付款金额
  • grade 贷款等级
  • subGrade 贷款等级之子级
  • employmentTitle 待业职称
  • employmentLength 待业年限(年)
  • homeOwnership 借款人在注销时提供的屋宇所有权情况
  • annualIncome 年收入
  • verificationStatus 验证状态
  • issueDate 贷款发放的月份
  • purpose 借款人在贷款申请时的贷款用处类别
  • postCode 借款人在贷款申请中提供的邮政编码的前 3 位数字
  • regionCode 地区编码
  • dti 债权支出比
  • delinquency_2years 借款人过来 2 年信用档案中逾期 30 天以上的守约事件数
  • ficoRangeLow 借款人在贷款发放时的 fico 所属的上限范畴
  • ficoRangeHigh 借款人在贷款发放时的 fico 所属的下限范畴
  • openAcc 借款人信用档案中未结信用额度的数量
  • pubRec 贬损公共记录的数量
  • pubRecBankruptcies 公开记录革除的数量
  • revolBal 信贷周转余额共计
  • revolUtil 循环额度利用率,或借款人应用的绝对于所有可用循环信贷的信贷金额
  • totalAcc 借款人信用档案中以后的信用额度总数
  • initialListStatus 贷款的初始列表状态
  • applicationType 表明贷款是集体申请还是与两个独特借款人的联结申请
  • earliesCreditLine 借款人最早报告的信用额度开立的月份
  • title 借款人提供的贷款名称
  • policyCode 公开可用的策略_代码 = 1 新产品不公开可用的策略_代码 =2
  • n 系列匿名特色 匿名特色 n0-n14,为一些贷款人行为计数特色的解决

1.2 预测指标

比赛采纳 AUC 作为评估指标。AUC(Area Under Curve)被定义为 ROC 曲线 下与坐标轴围成的面积。

1.2.1 分类算法常见的评估指标如下:

1、混同矩阵(Confuse Matrix)

  • (1)若一个实例是正类,并且被预测为正类,即为真正类 TP(True Positive)
  • (2)若一个实例是正类,然而被预测为负类,即为假负类 FN(False Negative)
  • (3)若一个实例是负类,然而被预测为正类,即为假正类 FP(False Positive)
  • (4)若一个实例是负类,并且被预测为负类,即为真负类 TN(True Negative)

2、准确率(Accuracy)
准确率是罕用的一个评估指标,然而不适宜样本不平衡的状况。
$Accuracy = \frac{TP + TN}{TP + TN + FP + FN}$

3、准确率(Precision)
又称查准率,正确预测为正样本(TP)占预测为正样本 (TP+FP) 的百分比。
$Precision = \frac{TP}{TP + FP}$

4、召回率(Recall)
又称为查全率,正确预测为正样本(TP)占正样本 (TP+FN) 的百分比。
$Recall = \frac{TP}{TP + FN}$

5、F1 Score
准确率和召回率是相互影响的,准确率升高则召回率降落,召回率升高则准确率降落,如果须要兼顾二者,就须要准确率、召回率的联合 F1 Score。
$F1-Score = \frac{2}{\frac{1}{Precision} + \frac{1}{Recall}}$

6、P- R 曲线(Precision-Recall Curve)
P- R 曲线是形容准确率和召回率变动的曲线

7、ROC(Receiver Operating Characteristic)

  • ROC 空间将假正例率(FPR)定义为 X 轴,真正例率(TPR)定义为 Y 轴。

TPR:在所有理论为正例的样本中,被正确地判断为正例之比率。
$TPR = \frac{TP}{TP + FN}$
FPR:在所有理论为负例的样本中,被谬误地判断为正例之比率。
$FPR = \frac{FP}{FP + TN}$

8、AUC(Area Under Curve)
AUC(Area Under Curve)被定义为 ROC 曲线 下与坐标轴围成的面积,显然这个面积的数值不会大于 1。又因为 ROC 曲线个别都处于 y = x 这条直线的上方,所以 AUC 的取值范畴在 0.5 和 1 之间。AUC 越靠近 1.0,检测办法真实性越高; 等于 0.5 时,则真实性最低,无利用价值。

1.2.2 对于金融风控预测类常见的评估指标如下:

1、KS(Kolmogorov-Smirnov)
KS 统计量由两位苏联数学家 A.N. Kolmogorov 和 N.V. Smirnov 提出。在风控中,KS 罕用于评估模型区分度。区分度越大,阐明模型的危险排序能力(ranking ability)越强。
K- S 曲线与 ROC 曲线相似,不同在于

  • ROC 曲线将真正例率和假正例率作为横纵轴
  • K- S 曲线将真正例率和假正例率都作为纵轴,横轴则由选定的阈值来充当。
    公式如下:
    $KS=max(TPR-FPR)$
    KS 不同代表的不同状况,个别状况 KS 值越大,模型的辨别能力越强,然而也不是越大模型成果就越好,如果 KS 过大,模型可能存在异样,所以当 KS 值过高可能须要查看模型是否过拟合。以下为 KS 值对应的模型状况,但此对应不是惟一的,只代表大抵趋势。
KS(%) 好坏辨别能力
20 以下 不倡议采纳
20-40 较好
41-50 良好
51-60 很强
61-75 十分强
75 以上 过于高,疑似存在问题

2、ROC

3、AUC

1.3 我的项目流程介绍

1.4 代码示例

本局部为对于数据读取和指标评估的示例。

1.4.1 数据读取 pandas

import pandas as pd
train = pd.read_csv('train.csv')
testA = pd.read_csv('testA.csv')
print('Train data shape:',train.shape)
print('TestA data shape:',testA.shape)
Train data shape: (800000, 47)
TestA data shape: (200000, 48)


train.head()

1.4.2 分类指标评估计算示例

## 混同矩阵
import numpy as np
from sklearn.metrics import confusion_matrix
y_pred = [0, 1, 0, 1]
y_true = [0, 1, 1, 0]
print('混同矩阵:\n',confusion_matrix(y_true, y_pred))
混同矩阵:
 [[1 1]
 [1 1]]


## accuracy
from sklearn.metrics import accuracy_score
y_pred = [0, 1, 0, 1]
y_true = [0, 1, 1, 0]
print('ACC:',accuracy_score(y_true, y_pred))
ACC: 0.5


## Precision,Recall,F1-score
from sklearn import metrics
y_pred = [0, 1, 0, 1]
y_true = [0, 1, 1, 0]
print('Precision',metrics.precision_score(y_true, y_pred))
print('Recall',metrics.recall_score(y_true, y_pred))
print('F1-score:',metrics.f1_score(y_true, y_pred))
Precision 0.5
Recall 0.5
F1-score: 0.5


## P- R 曲线
import matplotlib.pyplot as plt
from sklearn.metrics import precision_recall_curve
y_pred = [0, 1, 1, 0, 1, 1, 0, 1, 1, 1]
y_true = [0, 1, 1, 0, 1, 0, 1, 1, 0, 1]
precision, recall, thresholds = precision_recall_curve(y_true, y_pred)
plt.plot(precision, recall)
[<matplotlib.lines.Line2D at 0x2170d0d6108>]


## ROC 曲线
from sklearn.metrics import roc_curve
y_pred = [0, 1, 1, 0, 1, 1, 0, 1, 1, 1]
y_true = [0, 1, 1, 0, 1, 0, 1, 1, 0, 1]
FPR,TPR,thresholds=roc_curve(y_true, y_pred)
plt.title('ROC')
plt.plot(FPR, TPR,'b')
plt.plot([0,1],[0,1],'r--')
plt.ylabel('TPR')
plt.xlabel('FPR')
Text(0.5, 0, 'FPR')
## AUC
import numpy as np
from sklearn.metrics import roc_auc_score
y_true = np.array([0, 0, 1, 1])
y_scores = np.array([0.1, 0.4, 0.35, 0.8])
print('AUC socre:',roc_auc_score(y_true, y_scores))
AUC socre: 0.75


## KS 值 在实际操作时往往应用 ROC 曲线配合求出 KS 值
from sklearn.metrics import roc_curve
y_pred = [0, 1, 1, 0, 1, 1, 0, 1, 1, 1]
y_true = [0, 1, 1, 0, 1, 0, 1, 1, 1, 1]
FPR,TPR,thresholds=roc_curve(y_true, y_pred)
KS=abs(FPR-TPR).max()
print('KS 值:',KS)
KS 值:0.5238095238095237



1.5 拓展常识——评分卡

评分卡是一张领有分数刻度会让相应阈值的表。信用评分卡是用于用户信用的一张刻度表。以下代码是一个非标准评分卡的代码流程,用于刻画用户的信用评分。评分卡是金融风控中罕用的一种对于用户信用进行刻画的伎俩哦!

# 评分卡 不是规范评分卡
def Score(prob,P0=600,PDO=20,badrate=None,goodrate=None):
    P0 = P0
    PDO = PDO
    theta0 = badrate/goodrate
    B = PDO/np.log(2)
    A = P0 + B*np.log(2*theta0)
    score = A-B*np.log(prob/(1-prob))
    return score

2. 数据探索性剖析

目标:

  • 1.EDA 价值次要在于相熟理解整个数据集的根本状况(缺失值,异样值),对数据集进行验证是否能够进行接下来的机器学习或者深度学习建模.
  • 2. 理解变量间的互相关系、变量与预测值之间的存在关系。
  • 3. 为特色工程做筹备

2.1 代码示例

2.1.1 导入数据分析及可视化过程须要的库

import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
import seaborn as sns
import datetime
import warnings
warnings.filterwarnings('ignore')
/Users/exudingtao/opt/anaconda3/lib/python3.7/site-packages/statsmodels/tools/_testing.py:19: FutureWarning: pandas.util.testing is deprecated. Use the functions in the public API at pandas.testing instead.
  import pandas.util.testing as tm

以上库都是 pip install 装置就好,如果本机有 python2,python3 两个 python 环境傻傻分不清哪个的话, 能够 pip3 install。或者间接在 notebook 中 ’!pip3 install **’ 装置。

2.1.2 读取文件

data_train = pd.read_csv('./train.csv')
data_test_a = pd.read_csv('./testA.csv')
  • 读取文件的拓展常识
  • pandas 读取数据时相对路径载入报错时,尝试应用 os.getcwd()查看当前工作目录。
  • TSV 与 CSV 的区别:

    • 从名称上即可晓得,TSV 是用制表符(Tab,’\t’)作为字段值的分隔符;CSV 是用半角逗号(’,’)作为字段值的分隔符;
    • Python 对 TSV 文件的反对:
      Python 的 csv 模块精确的讲应该叫做 dsv 模块,因为它实际上是反对范式的分隔符分隔值文件(DSV,delimiter-separated values)的。
      delimiter 参数值默认为半角逗号,即默认将被解决文件视为 CSV。当 delimiter=’\t’ 时,被解决文件就是 TSV。
  • 读取文件的局部(实用于文件特地大的场景)

    • 通过 nrows 参数,来设置读取文件的前多少行,nrows 是一个大于等于 0 的整数。
    • 分块读取
data_train_sample = pd.read_csv("./train.csv",nrows=5)
# 设置 chunksize 参数,来管制每次迭代数据的大小
chunker = pd.read_csv("./train.csv",chunksize=5)
for item in chunker:
    print(type(item))
    #<class 'pandas.core.frame.DataFrame'>
    print(len(item))
    #5

查看数据集的样本个数和原始特色维度

data_test_a.shape
(200000, 48)



data_train.shape
(800000, 47)



data_train.columns
Index(['id', 'loanAmnt', 'term', 'interestRate', 'installment', 'grade',
       'subGrade', 'employmentTitle', 'employmentLength', 'homeOwnership',
       'annualIncome', 'verificationStatus', 'issueDate', 'isDefault',
       'purpose', 'postCode', 'regionCode', 'dti', 'delinquency_2years',
       'ficoRangeLow', 'ficoRangeHigh', 'openAcc', 'pubRec',
       'pubRecBankruptcies', 'revolBal', 'revolUtil', 'totalAcc',
       'initialListStatus', 'applicationType', 'earliesCreditLine', 'title',
       'policyCode', 'n0', 'n1', 'n2', 'n2.1', 'n4', 'n5', 'n6', 'n7', 'n8',
       'n9', 'n10', 'n11', 'n12', 'n13', 'n14'],
      dtype='object')


查看一下具体的列名,赛题了解局部曾经给出具体的特色含意,这里不便浏览再给一下:

  • id 为贷款清单调配的惟一信用证标识
  • loanAmnt 贷款金额
  • term 贷款期限(year)
  • interestRate 贷款利率
  • installment 分期付款金额
  • grade 贷款等级
  • subGrade 贷款等级之子级
  • employmentTitle 待业职称
  • employmentLength 待业年限(年)
  • homeOwnership 借款人在注销时提供的屋宇所有权情况
  • annualIncome 年收入
  • verificationStatus 验证状态
  • issueDate 贷款发放的月份
  • purpose 借款人在贷款申请时的贷款用处类别
  • postCode 借款人在贷款申请中提供的邮政编码的前 3 位数字
  • regionCode 地区编码
  • dti 债权支出比
  • delinquency_2years 借款人过来 2 年信用档案中逾期 30 天以上的守约事件数
  • ficoRangeLow 借款人在贷款发放时的 fico 所属的上限范畴
  • ficoRangeHigh 借款人在贷款发放时的 fico 所属的下限范畴
  • openAcc 借款人信用档案中未结信用额度的数量
  • pubRec 贬损公共记录的数量
  • pubRecBankruptcies 公开记录革除的数量
  • revolBal 信贷周转余额共计
  • revolUtil 循环额度利用率,或借款人应用的绝对于所有可用循环信贷的信贷金额
  • totalAcc 借款人信用档案中以后的信用额度总数
  • initialListStatus 贷款的初始列表状态
  • applicationType 表明贷款是集体申请还是与两个独特借款人的联结申请
  • earliesCreditLine 借款人最早报告的信用额度开立的月份
  • title 借款人提供的贷款名称
  • policyCode 公开可用的策略_代码 = 1 新产品不公开可用的策略_代码 =2
  • n 系列匿名特色 匿名特色 n0-n14,为一些贷款人行为计数特色的解决

通过 info()来相熟数据类型

data_train.info()
<class 'pandas.core.frame.DataFrame'>
RangeIndex: 800000 entries, 0 to 799999
Data columns (total 47 columns):
 #   Column              Non-Null Count   Dtype  
---  ------              --------------   -----  
 0   id                  800000 non-null  int64  
 1   loanAmnt            800000 non-null  float64
 2   term                800000 non-null  int64  
 3   interestRate        800000 non-null  float64
 4   installment         800000 non-null  float64
 5   grade               800000 non-null  object 
 6   subGrade            800000 non-null  object 
 7   employmentTitle     799999 non-null  float64
 8   employmentLength    753201 non-null  object 
 9   homeOwnership       800000 non-null  int64  
 10  annualIncome        800000 non-null  float64
 11  verificationStatus  800000 non-null  int64  
 12  issueDate           800000 non-null  object 
 13  isDefault           800000 non-null  int64  
 14  purpose             800000 non-null  int64  
 15  postCode            799999 non-null  float64
 16  regionCode          800000 non-null  int64  
 17  dti                 799761 non-null  float64
 18  delinquency_2years  800000 non-null  float64
 19  ficoRangeLow        800000 non-null  float64
 20  ficoRangeHigh       800000 non-null  float64
 21  openAcc             800000 non-null  float64
 22  pubRec              800000 non-null  float64
 23  pubRecBankruptcies  799595 non-null  float64
 24  revolBal            800000 non-null  float64
 25  revolUtil           799469 non-null  float64
 26  totalAcc            800000 non-null  float64
 27  initialListStatus   800000 non-null  int64  
 28  applicationType     800000 non-null  int64  
 29  earliesCreditLine   800000 non-null  object 
 30  title               799999 non-null  float64
 31  policyCode          800000 non-null  float64
 32  n0                  759730 non-null  float64
 33  n1                  759730 non-null  float64
 34  n2                  759730 non-null  float64
 35  n2.1                759730 non-null  float64
 36  n4                  766761 non-null  float64
 37  n5                  759730 non-null  float64
 38  n6                  759730 non-null  float64
 39  n7                  759730 non-null  float64
 40  n8                  759729 non-null  float64
 41  n9                  759730 non-null  float64
 42  n10                 766761 non-null  float64
 43  n11                 730248 non-null  float64
 44  n12                 759730 non-null  float64
 45  n13                 759730 non-null  float64
 46  n14                 759730 non-null  float64
dtypes: float64(33), int64(9), object(5)
memory usage: 286.9+ MB

总体粗略的查看数据集各个特色的一些根本统计量

data_train.describe()
data_train.head(3).append(data_train.tail(3))

2.1.3 查看数据集中特色缺失值,惟一值等

查看缺失值

print(f'There are {data_train.isnull().any().sum()} columns in train dataset with missing values.')
There are 22 columns in train dataset with missing values.

下面失去训练集有 22 列特色有缺失值,进一步查看缺失特色中缺失率大于 50% 的特色

have_null_fea_dict = (data_train.isnull().sum()/len(data_train)).to_dict()
fea_null_moreThanHalf = {}
for key,value in have_null_fea_dict.items():
    if value > 0.5:
        fea_null_moreThanHalf[key] = value
fea_null_moreThanHalf
{}


具体的查看缺失特色及缺失率

#nan 可视化
missing = data_train.isnull().sum()/len(data_train)
missing = missing[missing > 0]
missing.sort_values(inplace=True)
missing.plot.bar()
<matplotlib.axes._subplots.AxesSubplot at 0x1229ab890>


  • 纵向理解哪些列存在“nan”, 并能够把 nan 的个数打印,次要的目标在于查看某一列 nan 存在的个数是否真的很大,如果 nan 存在的过多,阐明这一列对 label 的影响简直不起作用了,能够思考删掉。如果缺失值很小个别能够抉择填充。
  • 另外能够横向比拟,如果在数据集中,某些样本数据的大部分列都是缺失的且样本足够的状况下能够思考删除。

Tips:
较量大杀器 lgb 模型能够主动解决缺失值,Task4 模型会具体学习模型理解模型哦!

查看训练集测试集中特色属性只有一值的特色

one_value_fea = [col for col in data_train.columns if data_train[col].nunique() <= 1]
one_value_fea_test = [col for col in data_test_a.columns if data_test_a[col].nunique() <= 1]
one_value_fea
['policyCode']



one_value_fea_test
['policyCode']



print(f'There are {len(one_value_fea)} columns in train dataset with one unique value.')
print(f'There are {len(one_value_fea_test)} columns in test dataset with one unique value.')
There are 1 columns in train dataset with one unique value.
There are 1 columns in test dataset with one unique value.


47 列数据中有 22 列都短少数据,这在事实世界中很失常。‘policyCode’具备一个惟一值(或全副缺失)。有很多连续变量和一些分类变量。

2.1.4 查看特色的数值类型有哪些,对象类型有哪些

  • 特色个别都是由类别型特色和数值型特色组成,而数值型特色又分为连续型和离散型。
  • 类别型特色有时具备非数值关系,有时也具备数值关系。比方‘grade’中的等级 A,B,C 等,是否只是单纯的分类,还是 A 优于其余要联合业务判断。
  • 数值型特色本是能够间接入模的,但往往风控人员要对其做分箱,转化为 WOE 编码进而做规范评分卡等操作。从模型成果上来看,特色分箱次要是为了升高变量的复杂性,缩小变量乐音对模型的影响,进步自变量和因变量的相关度。从而使模型更加稳固。
numerical_fea = list(data_train.select_dtypes(exclude=['object']).columns)
category_fea = list(filter(lambda x: x not in numerical_fea,list(data_train.columns)))
numerical_fea
category_fea
['grade', 'subGrade', 'employmentLength', 'issueDate', 'earliesCreditLine']



data_train.grade
0         E
1         D
2         D
3         A
4         C
         ..
799995    C
799996    A
799997    C
799998    A
799999    B
Name: grade, Length: 800000, dtype: object


  • 划分数值型变量中的连续变量和离散型变量
# 过滤数值型类别特色
def get_numerical_serial_fea(data,feas):
    numerical_serial_fea = []
    numerical_noserial_fea = []
    for fea in feas:
        temp = data[fea].nunique()
        if temp <= 10:
            numerical_noserial_fea.append(fea)
            continue
        numerical_serial_fea.append(fea)
    return numerical_serial_fea,numerical_noserial_fea
numerical_serial_fea,numerical_noserial_fea = get_numerical_serial_fea(data_train,numerical_fea)
numerical_serial_fea
numerical_noserial_fea
['term',
 'homeOwnership',
 'verificationStatus',
 'isDefault',
 'initialListStatus',
 'applicationType',
 'policyCode',
 'n11',
 'n12']


  • 数值类别型变量剖析
data_train['term'].value_counts()# 离散型变量
3    606902
5    193098
Name: term, dtype: int64



data_train['homeOwnership'].value_counts()# 离散型变量
0    395732
1    317660
2     86309
3       185
5        81
4        33
Name: homeOwnership, dtype: int64



data_train['verificationStatus'].value_counts()# 离散型变量
1    309810
2    248968
0    241222
Name: verificationStatus, dtype: int64



data_train['initialListStatus'].value_counts()# 离散型变量
0    466438
1    333562
Name: initialListStatus, dtype: int64



data_train['applicationType'].value_counts()# 离散型变量
0    784586
1     15414
Name: applicationType, dtype: int64



data_train['policyCode'].value_counts()# 离散型变量,无用,全副一个值
1.0    800000
Name: policyCode, dtype: int64



data_train['n11'].value_counts()# 离散型变量,相差悬殊,用不必再剖析
0.0    729682
1.0       540
2.0        24
4.0         1
3.0         1
Name: n11, dtype: int64



data_train['n12'].value_counts()# 离散型变量,相差悬殊,用不必再剖析
0.0    757315
1.0      2281
2.0       115
3.0        16
4.0         3
Name: n12, dtype: int64


  • 数值连续型变量剖析
# 每个数字特色得散布可视化
f = pd.melt(data_train, value_vars=numerical_serial_fea)
g = sns.FacetGrid(f, col="variable",  col_wrap=2, sharex=False, sharey=False)
g = g.map(sns.distplot, "value")
  • 查看某一个数值型变量的散布,查看变量是否合乎正态分布,如果不合乎正太散布的变量能够 log 化后再察看下是否合乎正态分布。
  • 如果想对立解决一批数据变标准化 必须把这些之前曾经正态化的数据提出
  • 正态化的起因:一些状况下正态非正态能够让模型更快的收敛,一些模型要求数据正态(eg. GMM、KNN), 保证数据不要过偏态即可,过于偏态可能会影响模型预测后果。
#Ploting Transaction Amount Values Distribution
plt.figure(figsize=(16,12))
plt.suptitle('Transaction Values Distribution', fontsize=22)
plt.subplot(221)
sub_plot_1 = sns.distplot(data_train['loanAmnt'])
sub_plot_1.set_title("loanAmnt Distribuition", fontsize=18)
sub_plot_1.set_xlabel("")
sub_plot_1.set_ylabel("Probability", fontsize=15)

plt.subplot(222)
sub_plot_2 = sns.distplot(np.log(data_train['loanAmnt']))
sub_plot_2.set_title("loanAmnt (Log) Distribuition", fontsize=18)
sub_plot_2.set_xlabel("")
sub_plot_2.set_ylabel("Probability", fontsize=15)
Text(0, 0.5, 'Probability')



  • 非数值类别型变量剖析
category_fea
['grade', 'subGrade', 'employmentLength', 'issueDate', 'earliesCreditLine']



data_train['grade'].value_counts()
B    233690
C    227118
A    139661
D    119453
E     55661
F     19053
G      5364
Name: grade, dtype: int64



data_train['subGrade'].value_counts()
C1    50763
B4    49516
B5    48965
B3    48600
C2    47068
C3    44751
C4    44272
B2    44227
B1    42382
C5    40264
A5    38045
A4    30928
D1    30538
D2    26528
A1    25909
D3    23410
A3    22655
A2    22124
D4    21139
D5    17838
E1    14064
E2    12746
E3    10925
E4     9273
E5     8653
F1     5925
F2     4340
F3     3577
F4     2859
F5     2352
G1     1759
G2     1231
G3      978
G4      751
G5      645
Name: subGrade, dtype: int64



data_train['employmentLength'].value_counts()
10+ years    262753
2 years       72358
< 1 year      64237
3 years       64152
1 year        52489
5 years       50102
4 years       47985
6 years       37254
8 years       36192
7 years       35407
9 years       30272
Name: employmentLength, dtype: int64



data_train['issueDate'].value_counts()
2016-03-01    29066
2015-10-01    25525
2015-07-01    24496
2015-12-01    23245
2014-10-01    21461
              ...  
2007-08-01       23
2007-07-01       21
2008-09-01       19
2007-09-01        7
2007-06-01        1
Name: issueDate, Length: 139, dtype: int64



data_train['earliesCreditLine'].value_counts()
Aug-2001    5567
Sep-2003    5403
Aug-2002    5403
Oct-2001    5258
Aug-2000    5246
            ... 
May-1960       1
Apr-1958       1
Feb-1960       1
Aug-1946       1
Mar-1958       1
Name: earliesCreditLine, Length: 720, dtype: int64



data_train['isDefault'].value_counts()
0    640390
1    159610
Name: isDefault, dtype: int64


2.1.4 小结:

  • 下面咱们用 value_counts()等函数看了特色属性的散布,然而图表是概括原始信息最便捷的形式。
  • 数有形时少直觉。
  • 同一份数据集,在不同的尺度刻画上显示进去的图形反映的法则是不一样的。python 将数据转化成图表,但论断是否正确须要由你保障。

2.2 变量散布可视化

2.2.1 繁多变量散布可视化

plt.figure(figsize=(8, 8))
sns.barplot(data_train["employmentLength"].value_counts(dropna=False)[:20],
            data_train["employmentLength"].value_counts(dropna=False).keys()[:20])
plt.show()

2.2.2 杜绝 y 值不同可视化 x 某个特色的散布

  • 首先查看类别型变量在不同 y 值上的散布
train_loan_fr = data_train.loc[data_train['isDefault'] == 1]
train_loan_nofr = data_train.loc[data_train['isDefault'] == 0]
fig, ((ax1, ax2), (ax3, ax4)) = plt.subplots(2, 2, figsize=(15, 8))
train_loan_fr.groupby('grade')['grade'].count().plot(kind='barh', ax=ax1, title='Count of grade fraud')
train_loan_nofr.groupby('grade')['grade'].count().plot(kind='barh', ax=ax2, title='Count of grade non-fraud')
train_loan_fr.groupby('employmentLength')['employmentLength'].count().plot(kind='barh', ax=ax3, title='Count of employmentLength fraud')
train_loan_nofr.groupby('employmentLength')['employmentLength'].count().plot(kind='barh', ax=ax4, title='Count of employmentLength non-fraud')
plt.show()
  • 其次查看连续型变量在不同 y 值上的散布
fig, ((ax1, ax2)) = plt.subplots(1, 2, figsize=(15, 6))
data_train.loc[data_train['isDefault'] == 1] \
    ['loanAmnt'].apply(np.log) \
    .plot(kind='hist',
          bins=100,
          title='Log Loan Amt - Fraud',
          color='r',
          xlim=(-3, 10),
         ax= ax1)
data_train.loc[data_train['isDefault'] == 0] \
    ['loanAmnt'].apply(np.log) \
    .plot(kind='hist',
          bins=100,
          title='Log Loan Amt - Not Fraud',
          color='b',
          xlim=(-3, 10),
         ax=ax2)
<matplotlib.axes._subplots.AxesSubplot at 0x126a44b50>



total = len(data_train)
total_amt = data_train.groupby(['isDefault'])['loanAmnt'].sum().sum()
plt.figure(figsize=(12,5))
plt.subplot(121)##1 代表行,2 代表列,所以一共有 2 个图,1 代表此时绘制第一个图。plot_tr = sns.countplot(x='isDefault',data=data_train)#data_train‘isDefault’这个特色每品种别的数量 **
plot_tr.set_title("Fraud Loan Distribution \n 0: good user | 1: bad user", fontsize=14)
plot_tr.set_xlabel("Is fraud by count", fontsize=16)
plot_tr.set_ylabel('Count', fontsize=16)
for p in plot_tr.patches:
    height = p.get_height()
    plot_tr.text(p.get_x()+p.get_width()/2.,
            height + 3,
            '{:1.2f}%'.format(height/total*100),
            ha="center", fontsize=15) 
    
percent_amt = (data_train.groupby(['isDefault'])['loanAmnt'].sum())
percent_amt = percent_amt.reset_index()
plt.subplot(122)
plot_tr_2 = sns.barplot(x='isDefault', y='loanAmnt',  dodge=True, data=percent_amt)
plot_tr_2.set_title("Total Amount in loanAmnt  \n 0: good user | 1: bad user", fontsize=14)
plot_tr_2.set_xlabel("Is fraud by percent", fontsize=16)
plot_tr_2.set_ylabel('Total Loan Amount Scalar', fontsize=16)
for p in plot_tr_2.patches:
    height = p.get_height()
    plot_tr_2.text(p.get_x()+p.get_width()/2.,
            height + 3,
            '{:1.2f}%'.format(height/total_amt * 100),
            ha="center", fontsize=15)     

2.2.3 工夫格局数据处理及查看

# 转化成工夫格局  issueDateDT 特色示意数据日期离数据集中日期最早的日期(2007-06-01)的天数
data_train['issueDate'] = pd.to_datetime(data_train['issueDate'],format='%Y-%m-%d')
startdate = datetime.datetime.strptime('2007-06-01', '%Y-%m-%d')
data_train['issueDateDT'] = data_train['issueDate'].apply(lambda x: x-startdate).dt.days
# 转化成工夫格局
data_test_a['issueDate'] = pd.to_datetime(data_train['issueDate'],format='%Y-%m-%d')
startdate = datetime.datetime.strptime('2007-06-01', '%Y-%m-%d')
data_test_a['issueDateDT'] = data_test_a['issueDate'].apply(lambda x: x-startdate).dt.days
plt.hist(data_train['issueDateDT'], label='train');
plt.hist(data_test_a['issueDateDT'], label='test');
plt.legend();
plt.title('Distribution of issueDateDT dates');
#train 和 test issueDateDT 日期有重叠 所以应用基于工夫的宰割进行验证是不明智的

2.3.4 把握透视图能够让咱们更好的理解数据

# 透视图 索引能够有多个,“columns(列)”是可选的,聚合函数 aggfunc 最初是被利用到了变量“values”中你所列举的我的项目上。pivot = pd.pivot_table(data_train, index=['grade'], columns=['issueDateDT'], values=['loanAmnt'], aggfunc=np.sum)
pivot

2.3. 用 pandas_profiling 生成数据报告

import pandas_profiling
pfr = pandas_profiling.ProfileReport(data_train)
pfr.to_file("./example.html")

2.4 总结

数据探索性剖析是咱们初步理解数据,相熟数据为特色工程做筹备的阶段,甚至很多时候 EDA 阶段提取进去的特色能够间接当作规定来用。可见 EDA 的重要性,这个阶段的次要工作还是借助于各个简略的统计量来对数据整体的理解,剖析各个类型变量相互之间的关系,以及用适合的图形可视化进去直观察看。心愿本节内容能给初学者带来帮忙,更期待各位学习者对其中的有余提出倡议。

3. 特色工程

import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
import seaborn as sns
import datetime
from tqdm import tqdm
from sklearn.preprocessing import LabelEncoder
from sklearn.feature_selection import SelectKBest
from sklearn.feature_selection import chi2
from sklearn.preprocessing import MinMaxScaler
import xgboost as xgb
import lightgbm as lgb
from catboost import CatBoostRegressor
import warnings
from sklearn.model_selection import StratifiedKFold, KFold
from sklearn.metrics import accuracy_score, f1_score, roc_auc_score, log_loss
warnings.filterwarnings('ignore')
data_train =pd.read_csv('../train.csv')
data_test_a = pd.read_csv('../testA.csv')

3.1 特色预处理

  • 数据 EDA 局部咱们曾经对数据的大略和某些特色散布有了理解,数据预处理局部个别咱们要解决一些 EDA 阶段剖析进去的问题,这里介绍了数据缺失值的填充,工夫格局特色的转化解决,某些对象类别特色的解决。

首先咱们查找出数据中的对象特色和数值特色

numerical_fea = list(data_train.select_dtypes(exclude=['object']).columns)
category_fea = list(filter(lambda x: x not in numerical_fea,list(data_train.columns)))
label = 'isDefault'
numerical_fea.remove(label)

在较量中数据预处理是必不可少的一部分,对于缺失值的填充往往会影响较量的后果,在较量中无妨尝试多种填充而后比拟后果抉择后果最优的一种;
较量数据相比实在场景的数据绝对要“洁净”一些,然而还是会有肯定的“脏”数据存在,荡涤一些异样值往往会取得意想不到的成果。

  • 把所有缺失值替换为指定的值 0

    data_train = data_train.fillna(0)

  • 向用缺失值下面的值替换缺失值

    data_train = data_train.fillna(axis=0,method=’ffill’)

  • 纵向用缺失值上面的值替换缺失值, 且设置最多只填充两个间断的缺失值

    data_train = data_train.fillna(axis=0,method=’bfill’,limit=2)

# 查看缺失值状况
data_train.isnull().sum()
# 依照平均数填充数值型特色
data_train[numerical_fea] = data_train[numerical_fea].fillna(data_train[numerical_fea].median())
data_test_a[numerical_fea] = data_test_a[numerical_fea].fillna(data_train[numerical_fea].median())
#依照众数填充类别型特色
data_train[category_fea] = data_train[category_fea].fillna(data_train[category_fea].mode())
data_test_a[category_fea] = data_test_a[category_fea].fillna(data_train[category_fea].mode())
data_train.isnull().sum()
# 查看类别特色
category_fea
['grade', 'subGrade', 'employmentLength', 'issueDate', 'earliesCreditLine']


  • category_fea:对象型类别特色须要进行预处理,其中 [‘issueDate’] 为工夫格局特色。
# 转化成工夫格局
for data in [data_train, data_test_a]:
    data['issueDate'] = pd.to_datetime(data['issueDate'],format='%Y-%m-%d')
    startdate = datetime.datetime.strptime('2007-06-01', '%Y-%m-%d')
    #结构工夫特色
    data['issueDateDT'] = data['issueDate'].apply(lambda x: x-startdate).dt.days
data_train['employmentLength'].value_counts(dropna=False).sort_index()
1 year        52489
10+ years    262753
2 years       72358
3 years       64152
4 years       47985
5 years       50102
6 years       37254
7 years       35407
8 years       36192
9 years       30272
< 1 year      64237
NaN           46799
Name: employmentLength, dtype: int64




def employmentLength_to_int(s):
    if pd.isnull(s):
        return s
    else:
        return np.int8(s.split()[0])
for data in [data_train, data_test_a]:
    data['employmentLength'].replace(to_replace='10+ years', value='10 years', inplace=True)
    data['employmentLength'].replace('< 1 year', '0 years', inplace=True)
    data['employmentLength'] = data['employmentLength'].apply(employmentLength_to_int)
data['employmentLength'].value_counts(dropna=False).sort_index()
0.0     15989
1.0     13182
2.0     18207
3.0     16011
4.0     11833
5.0     12543
6.0      9328
7.0      8823
8.0      8976
9.0      7594
10.0    65772
NaN     11742
Name: employmentLength, dtype: int64


  • 对 earliesCreditLine 进行预处理
data_train['earliesCreditLine'].sample(5)
519915    Sep-2002
564368    Dec-1996
768209    May-2004
453092    Nov-1995
763866    Sep-2000
Name: earliesCreditLine, dtype: object



for data in [data_train, data_test_a]:
    data['earliesCreditLine'] = data['earliesCreditLine'].apply(lambda s: int(s[-4:]))
# 局部类别特色
cate_features = ['grade', 'subGrade', 'employmentTitle', 'homeOwnership', 'verificationStatus', 'purpose', 'postCode', 'regionCode', \
                 'applicationType', 'initialListStatus', 'title', 'policyCode']
for f in cate_features:
    print(f, '类型数:', data[f].nunique())
grade 类型数:7
subGrade 类型数:35
employmentTitle 类型数:79282
homeOwnership 类型数:6
verificationStatus 类型数:3
purpose 类型数:14
postCode 类型数:889
regionCode 类型数:51
applicationType 类型数:2
initialListStatus 类型数:2
title 类型数:12058
policyCode 类型数:1

像等级这种类别特色,是有优先级的能够 labelencode 或者自映射

for data in [data_train, data_test_a]:
    data['grade'] = data['grade'].map({'A':1,'B':2,'C':3,'D':4,'E':5,'F':6,'G':7})
# 类型数在 2 之上,又不是高维稠密的, 且纯分类特色
for data in [data_train, data_test_a]:
    data = pd.get_dummies(data, columns=['subGrade', 'homeOwnership', 'verificationStatus', 'purpose', 'regionCode'], drop_first=True)

3.2 异样值解决

  • 当你发现异常值后,肯定要先分清是什么起因导致的异样值,而后再思考如何解决。首先,如果这一异样值并不代表一种规律性的,而是极其偶尔的景象,或者说你并不想钻研这种偶尔的景象,这时能够将其删除。其次,如果异样值存在且代表了一种实在存在的景象,那就不能轻易删除。在现有的欺诈场景中很多时候欺诈数据自身绝对于失常数据勒说就是异样的,咱们要把这些异样点纳入,从新拟合模型,钻研其法则。能用监督的用监督模型,不能用的还能够思考用异样检测的算法来做。
  • 留神 test 的数据不能删。

3.2.1 检测异样的办法一:均方差

在统计学中,如果一个数据分布近似正态,那么大概 68% 的数据值会在均值的一个标准差范畴内,大概 95% 会在两个标准差范畴内,大概 99.7% 会在三个标准差范畴内。

def find_outliers_by_3segama(data,fea):
    data_std = np.std(data[fea])
    data_mean = np.mean(data[fea])
    outliers_cut_off = data_std * 3
    lower_rule = data_mean - outliers_cut_off
    upper_rule = data_mean + outliers_cut_off
    data[fea+'_outliers'] = data[fea].apply(lambda x:str('异样值') if x > upper_rule or x < lower_rule else '正常值')
    return data
  • 失去特色的异样值后能够进一步剖析变量异样值和指标变量的关系
data_train = data_train.copy()
for fea in numerical_fea:
    data_train = find_outliers_by_3segama(data_train,fea)
    print(data_train[fea+'_outliers'].value_counts())
    print(data_train.groupby(fea+'_outliers')['isDefault'].sum())
    print('*'*10)
  • 例如能够看到异样值在两个变量上的散布简直复合整体的散布,如果异样值都属于为 1 的用户数据外面代表什么呢?
# 删除异常值
for fea in numerical_fea:
    data_train = data_train[data_train[fea+'_outliers']=='正常值']
    data_train = data_train.reset_index(drop=True) 

3.2.1 检测异样的办法二:箱型图

  • 总结一句话:四分位数会将数据分为三个点和四个区间,IQR = Q3 -Q1,下触须 =Q1 − 1.5x IQR,上触须 =Q3 + 1.5x IQR;

3.3 数据分桶

  • 特色分箱的目标:

    • 从模型成果上来看,特色分箱次要是为了升高变量的复杂性,缩小变量乐音对模型的影响,进步自变量和因变量的相关度。从而使模型更加稳固。
  • 数据分桶的对象:

    • 将连续变量离散化
    • 将多状态的离散变量合并成少状态
  • 分箱的起因:

    • 数据的特色内的值跨度可能比拟大,对有监督和无监督中如 k - 均值聚类它应用欧氏间隔作为类似度函数来测量数据点之间的类似度。都会造成大吃小的影响,其中一种解决办法是对计数值进行区间量化即数据分桶也叫做数据分箱,而后应用量化后的后果。
  • 分箱的长处:

    • 解决缺失值:当数据源可能存在缺失值,此时能够把 null 独自作为一个分箱。
    • 解决异样值:当数据中存在离群点时,能够把其通过分箱离散化解决,从而进步变量的鲁棒性(抗干扰能力)。例如,age 若呈现 200 这种异样值,可分入“age > 60”这个分箱里,排除影响。
    • 业务解释性:咱们习惯于线性判断变量的作用,当 x 越来越大,y 就越来越大。但理论 x 与 y 之间常常存在着非线性关系,此时可通过 WOE 变换。
  • 特地要留神一下分箱的根本准则:

    • (1)最小分箱占比不低于 5%
    • (2)箱内不能全副是好客户
    • (3)间断箱枯燥
  1. 固定宽度分箱

当数值横跨多个数量级时,最好依照 10 的幂(或任何常数的幂)来进行分组:0~9、10~99、100~999、1000~9999,等等。固定宽度分箱非常容易计算,但如果计数值中有比拟大的缺口,就会产生很多没有任何数据的空箱子。

# 通过除法映射到距离平均的分箱中,每个分箱的取值范畴都是 loanAmnt/1000
data['loanAmnt_bin1'] = np.floor_divide(data['loanAmnt'], 1000)
## 通过对数函数映射到指数宽度分箱
data['loanAmnt_bin2'] = np.floor(np.log10(data['loanAmnt']))
  1. 分位数分箱
data['loanAmnt_bin3'] = pd.qcut(data['loanAmnt'], 10, labels=False)
  1. 卡方分箱及其他分箱办法的尝试

    • 这一部分属于进阶局部,学有余力的同学能够自行搜寻尝试。

3.4 特色交互

  • 交互特色的结构非常简单,应用起来却代价不菲。如果线性模型中蕴含有交互特色对,那它的训练工夫和评分工夫就会从 O(n) 减少到 O(n2),其中 n 是繁多特色的数量。
for col in ['grade', 'subGrade']: 
    temp_dict = data_train.groupby([col])['isDefault'].agg(['mean']).reset_index().rename(columns={'mean': col + '_target_mean'})
    temp_dict.index = temp_dict[col].values
    temp_dict = temp_dict[col + '_target_mean'].to_dict()

    data_train[col + '_target_mean'] = data_train[col].map(temp_dict)
    data_test_a[col + '_target_mean'] = data_test_a[col].map(temp_dict)
# 其余衍生变量 mean 和 std
for df in [data_train, data_test_a]:
    for item in ['n0','n1','n2','n2.1','n4','n5','n6','n7','n8','n9','n10','n11','n12','n13','n14']:
        df['grade_to_mean_' + item] = df['grade'] / df.groupby([item])['grade'].transform('mean')
        df['grade_to_std_' + item] = df['grade'] / df.groupby([item])['grade'].transform('std')

这里给出一些特色交互的思路,但特色和特色间的交互衍生出新的特色还远远不止于此,抛砖引玉,心愿大家多多摸索。请学习者尝试其余的特色交互办法。

3.5 特色编码

3.5.1labelEncode 间接放入树模型中

#label-encode:subGrade,postCode,title
#高维类别特色须要进行转换
for col in tqdm(['employmentTitle', 'postCode', 'title','subGrade']):
    le = LabelEncoder()
    le.fit(list(data_train[col].astype(str).values) + list(data_test_a[col].astype(str).values))
    data_train[col] = le.transform(list(data_train[col].astype(str).values))
    data_test_a[col] = le.transform(list(data_test_a[col].astype(str).values))
print('Label Encoding 实现')
100%|██████████| 4/4 [00:08<00:00,  2.04s/it]

Label Encoding 实现




3.5.2 逻辑回归等模型要独自减少的特色工程

  • 对特色做归一化,去除相关性高的特色
  • 归一化目标是让训练过程更好更快的收敛,防止特色大吃小的问题
  • 去除相关性是减少模型的可解释性,放慢预测过程。
# 举例归一化过程
#伪代码
for fea in [要归一化的特色列表]:data[fea] = ((data[fea] - np.min(data[fea])) / (np.max(data[fea]) - np.min(data[fea])))

3.6 特征选择

  • 特征选择技术能够精简掉无用的特色,以升高最终模型的复杂性,它的最终目标是失去一个简洁模型,在不升高预测准确率或对预测准确率影响不大的状况下进步计算速度。特征选择不是为了缩小训练工夫(实际上,一些技术会减少总体训练工夫),而是为了缩小模型评分工夫。

特征选择的办法:

  • 1 Filter

    • 方差抉择法
    • 相关系数法(pearson 相关系数)
    • 卡方测验
    • 互信息法
  • 2 Wrapper(RFE)

    • 递归特色打消法
  • 3 Embedded

    • 基于惩办项的特征选择法
    • 基于树模型的特征选择

3.6.1Filter(方差抉择法、相关系数法)

  • 基于特色间的关系进行筛选

方差抉择法

  • 方差抉择法中,先要计算各个特色的方差,而后依据设定的阈值,抉择方差大于阈值的特色
from sklearn.feature_selection import VarianceThreshold
#其中参数 threshold 为方差的阈值
VarianceThreshold(threshold=3).fit_transform(train,target_train)

相关系数法

  • Pearson 相关系数
    皮尔森相关系数是一种最简略的,能够帮忙了解特色和响应变量之间关系的办法,该办法掂量的是变量之间的线性相关性。
    后果的取值区间为 [-1,1],-1 示意齐全的负相关,+ 1 示意齐全的正相干,0 示意没有线性相关。
from sklearn.feature_selection import SelectKBest
from scipy.stats import pearsonr
#抉择 K 个最好的特色,返回抉择特色后的数据
#第一个参数为计算评估特色是否好的函数,该函数输出特色矩阵和指标向量,#输入二元组(评分,P 值)的数组,数组第 i 项为第 i 个特色的评分和 P 值。在此定义为计算相关系数
#参数 k 为抉择的特色个数

SelectKBest(k=5).fit_transform(train,target_train)

卡方测验

  • 经典的卡方测验是用于测验自变量对因变量的相关性。假如自变量有 N 种取值,因变量有 M 种取值,思考自变量等于 i 且因变量等于 j 的样本频数的察看值与冀望的差距。其统计量如下:χ2=∑(A−T)2T,其中 A 为理论值,T 为理论值
  • (注:卡方只能使用在正定矩阵上,否则会报错 Input X must be non-negative)
from sklearn.feature_selection import SelectKBest
from sklearn.feature_selection import chi2
#参数 k 为抉择的特色个数

SelectKBest(chi2, k=5).fit_transform(train,target_train)

互信息法

  • 经典的互信息也是评估自变量对因变量的相关性的。在 feature_selection 库的 SelectKBest 类联合最大信息系数法能够用于抉择特色,相干代码如下:
from sklearn.feature_selection import SelectKBest
from minepy import MINE
#因为 MINE 的设计不是函数式的,定义 mic 办法将其为函数式的,#返回一个二元组,二元组的第 2 项设置成固定的 P 值 0.5
def mic(x, y):
    m = MINE()
    m.compute_score(x, y)
    return (m.mic(), 0.5)
#参数 k 为抉择的特色个数
SelectKBest(lambda X, Y: array(map(lambda x:mic(x, Y), X.T)).T, k=2).fit_transform(train,target_train)

3.6.2Wrapper(递归特色法)

  • 递归特色打消法 递归打消特色法应用一个基模型来进行多轮训练,每轮训练后,打消若干权值系数的特色,再基于新的特色集进行下一轮训练。在 feature_selection 库的 RFE 类能够用于抉择特色,相干代码如下(以逻辑回归为例):
from sklearn.feature_selection import RFE
from sklearn.linear_model import LogisticRegression
#递归特色打消法,返回特征选择后的数据
#参数 estimator 为基模型
#参数 n_features_to_select 为抉择的特色个数

RFE(estimator=LogisticRegression(), n_features_to_select=2).fit_transform(train,target_train)

3.6.3Embedded(惩办项的特征选择法、树模型的特征选择)

  • 基于惩办项的特征选择法 应用带惩办项的基模型,除了筛选出特色外,同时也进行了降维。在 feature_selection 库的 SelectFromModel 类联合逻辑回归模型能够用于抉择特色,相干代码如下:
from sklearn.feature_selection import SelectFromModel
from sklearn.linear_model import LogisticRegression
#带 L1 惩办项的逻辑回归作为基模型的特征选择

SelectFromModel(LogisticRegression(penalty="l1", C=0.1)).fit_transform(train,target_train)
  • 基于树模型的特征选择 树模型中 GBDT 也可用来作为基模型进行特征选择。在 feature_selection 库的 SelectFromModel 类联合 GBDT 模型能够用于抉择特色,相干代码如下:
from sklearn.feature_selection import SelectFromModel
from sklearn.ensemble import GradientBoostingClassifier
#GBDT 作为基模型的特征选择
SelectFromModel(GradientBoostingClassifier()).fit_transform(train,target_train)

本数据集中咱们删除非入模特色后,并对缺失值填充,而后用计算协方差的形式看一下特色间相关性,而后进行模型训练

# 删除不须要的数据
for data in [data_train, data_test_a]:
    data.drop(['issueDate','id'], axis=1,inplace=True)
"纵向用缺失值下面的值替换缺失值"
data_train = data_train.fillna(axis=0,method='ffill')
x_train = data_train.drop(['isDefault','id'], axis=1)
#计算协方差
data_corr = x_train.corrwith(data_train.isDefault) #计算相关性
result = pd.DataFrame(columns=['features', 'corr'])
result['features'] = data_corr.index
result['corr'] = data_corr.values
# 当然也能够间接看图
data_numeric = data_train[numerical_fea]
correlation = data_numeric.corr()

f , ax = plt.subplots(figsize = (7, 7))
plt.title('Correlation of Numeric Features with Price',y=1,size=16)
sns.heatmap(correlation,square = True,  vmax=0.8)
<matplotlib.axes._subplots.AxesSubplot at 0x12d88ad10>



features = [f for f in data_train.columns if f not in ['id','issueDate','isDefault'] and '_outliers' not in f]
x_train = data_train[features]
x_test = data_test_a[features]
y_train = data_train['isDefault']
def cv_model(clf, train_x, train_y, test_x, clf_name):
    folds = 5
    seed = 2020
    kf = KFold(n_splits=folds, shuffle=True, random_state=seed)

    train = np.zeros(train_x.shape[0])
    test = np.zeros(test_x.shape[0])

    cv_scores = []

    for i, (train_index, valid_index) in enumerate(kf.split(train_x, train_y)):
        print('************************************ {} ************************************'.format(str(i+1)))
        trn_x, trn_y, val_x, val_y = train_x.iloc[train_index], train_y[train_index], train_x.iloc[valid_index], train_y[valid_index]

        if clf_name == "lgb":
            train_matrix = clf.Dataset(trn_x, label=trn_y)
            valid_matrix = clf.Dataset(val_x, label=val_y)

            params = {
                'boosting_type': 'gbdt',
                'objective': 'binary',
                'metric': 'auc',
                'min_child_weight': 5,
                'num_leaves': 2 ** 5,
                'lambda_l2': 10,
                'feature_fraction': 0.8,
                'bagging_fraction': 0.8,
                'bagging_freq': 4,
                'learning_rate': 0.1,
                'seed': 2020,
                'nthread': 28,
                'n_jobs':24,
                'silent': True,
                'verbose': -1,
            }

            model = clf.train(params, train_matrix, 50000, valid_sets=[train_matrix, valid_matrix], verbose_eval=200,early_stopping_rounds=200)
            val_pred = model.predict(val_x, num_iteration=model.best_iteration)
            test_pred = model.predict(test_x, num_iteration=model.best_iteration)
            
            # print(list(sorted(zip(features, model.feature_importance("gain")), key=lambda x: x[1], reverse=True))[:20])
                
        if clf_name == "xgb":
            train_matrix = clf.DMatrix(trn_x , label=trn_y)
            valid_matrix = clf.DMatrix(val_x , label=val_y)
            
            params = {'booster': 'gbtree',
                      'objective': 'binary:logistic',
                      'eval_metric': 'auc',
                      'gamma': 1,
                      'min_child_weight': 1.5,
                      'max_depth': 5,
                      'lambda': 10,
                      'subsample': 0.7,
                      'colsample_bytree': 0.7,
                      'colsample_bylevel': 0.7,
                      'eta': 0.04,
                      'tree_method': 'exact',
                      'seed': 2020,
                      'nthread': 36,
                      "silent": True,
                      }
            
            watchlist = [(train_matrix, 'train'),(valid_matrix, 'eval')]
            
            model = clf.train(params, train_matrix, num_boost_round=50000, evals=watchlist, verbose_eval=200, early_stopping_rounds=200)
            val_pred  = model.predict(valid_matrix, ntree_limit=model.best_ntree_limit)
            test_pred = model.predict(test_x , ntree_limit=model.best_ntree_limit)
                 
        if clf_name == "cat":
            params = {'learning_rate': 0.05, 'depth': 5, 'l2_leaf_reg': 10, 'bootstrap_type': 'Bernoulli',
                      'od_type': 'Iter', 'od_wait': 50, 'random_seed': 11, 'allow_writing_files': False}
            
            model = clf(iterations=20000, **params)
            model.fit(trn_x, trn_y, eval_set=(val_x, val_y),
                      cat_features=[], use_best_model=True, verbose=500)
            
            val_pred  = model.predict(val_x)
            test_pred = model.predict(test_x)
            
        train[valid_index] = val_pred
        test = test_pred / kf.n_splits
        cv_scores.append(roc_auc_score(val_y, val_pred))
        
        print(cv_scores)
        
    print("%s_scotrainre_list:" % clf_name, cv_scores)
    print("%s_score_mean:" % clf_name, np.mean(cv_scores))
    print("%s_score_std:" % clf_name, np.std(cv_scores))
    return train, test
def lgb_model(x_train, y_train, x_test):
    lgb_train, lgb_test = cv_model(lgb, x_train, y_train, x_test, "lgb")
    return lgb_train, lgb_test

def xgb_model(x_train, y_train, x_test):
    xgb_train, xgb_test = cv_model(xgb, x_train, y_train, x_test, "xgb")
    return xgb_train, xgb_test

def cat_model(x_train, y_train, x_test):
    cat_train, cat_test = cv_model(CatBoostRegressor, x_train, y_train, x_test, "cat")
lgb_train, lgb_test = lgb_model(x_train, y_train, x_test)
************************************ 1 ************************************
Training until validation scores don't improve for 200 rounds
[200]    training's auc: 0.749225    valid_1's auc: 0.729679
[400]    training's auc: 0.765075    valid_1's auc: 0.730496
[600]    training's auc: 0.778745    valid_1's auc: 0.730435
Early stopping, best iteration is:
[455]    training's auc: 0.769202    valid_1's auc: 0.730686
[0.7306859913754798]
************************************ 2 ************************************
Training until validation scores don't improve for 200 rounds
[200]    training's auc: 0.749221    valid_1's auc: 0.731315
[400]    training's auc: 0.765117    valid_1's auc: 0.731658
[600]    training's auc: 0.778542    valid_1's auc: 0.731333
Early stopping, best iteration is:
[407]    training's auc: 0.765671    valid_1's auc: 0.73173
[0.7306859913754798, 0.7317304414673989]
************************************ 3 ************************************
Training until validation scores don't improve for 200 rounds
[200]    training's auc: 0.748436    valid_1's auc: 0.732775
[400]    training's auc: 0.764216    valid_1's auc: 0.733173
Early stopping, best iteration is:
[386]    training's auc: 0.763261    valid_1's auc: 0.733261
[0.7306859913754798, 0.7317304414673989, 0.7332610441015461]
************************************ 4 ************************************
Training until validation scores don't improve for 200 rounds
[200]    training's auc: 0.749631    valid_1's auc: 0.728327
[400]    training's auc: 0.765139    valid_1's auc: 0.728845
Early stopping, best iteration is:
[286]    training's auc: 0.756978    valid_1's auc: 0.728976
[0.7306859913754798, 0.7317304414673989, 0.7332610441015461, 0.7289759386807912]
************************************ 5 ************************************
Training until validation scores don't improve for 200 rounds
[200]    training's auc: 0.748414    valid_1's auc: 0.732727
[400]    training's auc: 0.763727    valid_1's auc: 0.733531
[600]    training's auc: 0.777489    valid_1's auc: 0.733566
Early stopping, best iteration is:
[524]    training's auc: 0.772372    valid_1's auc: 0.733772
[0.7306859913754798, 0.7317304414673989, 0.7332610441015461, 0.7289759386807912, 0.7337723979789789]
lgb_scotrainre_list: [0.7306859913754798, 0.7317304414673989, 0.7332610441015461, 0.7289759386807912, 0.7337723979789789]
lgb_score_mean: 0.7316851627208389
lgb_score_std: 0.0017424259863954693


testA_result = pd.read_csv('../testA_result.csv')
roc_auc_score(testA_result['isDefault'].values, lgb_test)
0.7290917729487896


3.8 总结

特色工程是机器学习,甚至是深度学习中最为重要的一部分,在理论利用中往往也是所破费工夫最多的一步。各种算法书中对特色工程局部的解说往往少得可怜,因为特色工程和具体的数据联合的太严密,很难系统地笼罩所有场景。本章次要是通过一些罕用的办法来做介绍,例如缺失值异样值的解决办法具体对任何数据集来说都是实用的。但对于分箱等操作本章给出了具体的几种思路,须要读者本人摸索。在特色工程中较量和具体的利用还是有所不同的,在理论的金融风控评分卡制作过程中,因为强调特色的可解释性,特色分箱尤其重要。

我的项目链接以及码源

数据挖掘专栏

数据挖掘实际(金融风控):金融风控之贷款守约预测挑战赛(上篇)

数据挖掘实际(金融风控):金融风控之贷款守约预测挑战赛(下篇)

退出移动版