1.机器学习算法(六)基于天气数据集的XGBoost分类预测

本我的项目链接:https://www.heywhale.com/home/column/64141d6b1c8c8b518ba97dcc

1.1 XGBoost的介绍与利用

XGBoost是2016年由华盛顿大学陈天奇老师率领开发的一个可扩大机器学习零碎。严格意义上讲XGBoost并不是一种模型,而是一个可供用户轻松解决分类、回归或排序问题的软件包。它外部实现了梯度晋升树(GBDT)模型,并对模型中的算法进行了诸多优化,在获得高精度的同时又放弃了极快的速度,在一段时间内成为了国内外数据挖掘、机器学习畛域中的大规模杀伤性武器。

更重要的是,XGBoost在系统优化和机器学习原理方面都进行了深刻的思考。毫不夸大的讲,XGBoost提供的可扩展性,可移植性与准确性推动了机器学习计算限度的下限,该零碎在单台机器上运行速度比过后风行解决方案快十倍以上,甚至在分布式系统中能够解决十亿级的数据。

XGBoost在机器学习与数据挖掘畛域有着极为宽泛的利用。据统计在2015年Kaggle平台上29个获奖计划中,17只队伍应用了XGBoost;在2015年KDD-Cup中,前十名的队伍均应用了XGBoost,且集成其余模型比不上调节XGBoost的参数所带来的晋升。这些实实在在的例子都表明,XGBoost在各种问题上都能够获得十分好的成果。

同时,XGBoost还被胜利利用在工业界与学术界的各种问题中。例如商店销售额预测、高能物理事件分类、web文本分类;用户行为预测、静止检测、广告点击率预测、恶意软件分类、灾祸危险预测、在线课程入学率预测。尽管畛域相干的数据分析和个性工程在这些解决方案中也施展了重要作用,但学习者与实践者对XGBoost的统一抉择表明了这一软件包的影响力与重要性。

1.2 原理介绍

XGBoost底层实现了GBDT算法,并对GBDT算法做了一系列优化:

  1. 对指标函数进行了泰勒展现的二阶开展,能够更加高效拟合误差。
  2. 提出了一种预计决裂点的算法减速CART树的构建过程,同时能够解决稠密数据。
  3. 提出了一种树的并行策略减速迭代。
  4. 为模型的分布式算法进行了底层优化。

XGBoost是基于CART树的集成模型,它的思维是串联多个决策树模型独特进行决策。

那么如何串联呢?XGBoost采纳迭代预测误差的办法串联。举个艰深的例子,咱们当初须要预测一辆车价值3000元。咱们构建决策树1训练后预测为2600元,咱们发现有400元的误差,那么决策树2的训练指标为400元,但决策树2的预测后果为350元,还存在50元的误差就交给第三棵树……以此类推,每一颗树用来预计之前所有树的误差,最初所有树预测后果的求和就是最终预测后果!

XGBoost的基模型是CART回归树,它有两个特点:(1)CART树,是一颗二叉树。(2)回归树,最初拟合后果是间断值。

XGBoost模型能够示意为以下模式,咱们约定$f_t(x)$示意前$t$颗树的和,$h_t(x)$示意第$t$颗决策树,模型定义如下:

$f_{t}(x)=\sum_{t=1}^{T} h_{t}(x)$

因为模型递归生成,第$t$步的模型由第$t-1$步的模型造成,能够写成:

$f_{t}(x)=f_{t-1}(x)+h_{t}(x)$

每次须要加上的树$h_t(x)$是之前树求和的误差:

$r_{t, i}=y_{i}-f_{m-1}\left(x_{i}\right)$

咱们每一步只有拟合一颗输入为$r_{t,i}$的CART树加到$f_{t-1}(x)$就能够了。

1.3 相干流程

  • 理解 XGBoost 的参数与相干常识
  • 把握 XGBoost 的Python调用并将其使用到天气数据集预测

Part1 基于天气数据集的XGBoost分类实际

  • Step1: 库函数导入
  • Step2: 数据读取/载入
  • Step3: 数据信息简略查看
  • Step4: 可视化形容
  • Step5: 对离散变量进行编码
  • Step6: 利用 XGBoost 进行训练与预测
  • Step7: 利用 XGBoost 进行特征选择
  • Step8: 通过调整参数取得更好的成果

3.基于天气数据集的XGBoost分类实战

3.1 EDA探索性剖析

在实际的最开始,咱们首先须要导入一些根底的函数库包含:numpy (Python进行科学计算的根底软件包),pandas(pandas是一种疾速,弱小,灵便且易于应用的开源数据分析和解决工具),matplotlib和seaborn绘图。

#导入须要用到的数据集!wget https://tianchi-media.oss-cn-beijing.aliyuncs.com/DSW/7XGBoost/train.csv
--2023-03-22 17:33:53--  https://tianchi-media.oss-cn-beijing.aliyuncs.com/DSW/7XGBoost/train.csv正在解析主机 tianchi-media.oss-cn-beijing.aliyuncs.com (tianchi-media.oss-cn-beijing.aliyuncs.com)... 49.7.22.39正在连接 tianchi-media.oss-cn-beijing.aliyuncs.com (tianchi-media.oss-cn-beijing.aliyuncs.com)|49.7.22.39|:443... 已连贯。已收回 HTTP 申请,正在期待回应... 200 OK长度: 11476379 (11M) [text/csv]正在保留至: “train.csv.2”train.csv.2         100%[===================>]  10.94M  8.82MB/s    in 1.2s    2023-03-22 17:33:55 (8.82 MB/s) - 已保留 “train.csv.2” [11476379/11476379])

Step1:函数库导入

##  根底函数库import numpy as np import pandas as pd## 绘图函数库import matplotlib.pyplot as pltimport seaborn as sns

本次咱们抉择天气数据集进行办法的尝试训练,当初有一些由气象站提供的每日降雨数据,咱们须要依据历史降雨数据来预测今天会下雨的概率。样例波及到的测试集数据test.csv与train.csv的格局完全相同,但其RainTomorrow未给出,为预测变量。

数据的各个特征描述如下:

特色名称意义取值范畴
Date日期字符串
Location气象站的地址字符串
MinTemp最低温度实数
MaxTemp最高温度实数
Rainfall降雨量实数
Evaporation蒸发量实数
Sunshine光照工夫实数
WindGustDir最强的风的方向字符串
WindGustSpeed最强的风的速度实数
WindDir9am早上9点的风向字符串
WindDir3pm下午3点的风向字符串
WindSpeed9am早上9点的风速实数
WindSpeed3pm下午3点的风速实数
Humidity9am早上9点的湿度实数
Humidity3pm下午3点的湿度实数
Pressure9am早上9点的大气压实数
Pressure3pm早上3点的大气压实数
Cloud9am早上9点的云指数实数
Cloud3pm早上3点的云指数实数
Temp9am早上9点的温度实数
Temp3pm早上3点的温度实数
RainToday明天是否下雨No,Yes
RainTomorrow今天是否下雨No,Yes

Step2:数据读取/载入

## 咱们利用Pandas自带的read_csv函数读取并转化为DataFrame格局data = pd.read_csv('train.csv')

Step3:数据信息简略查看

## 利用.info()查看数据的整体信息data.info()
<class 'pandas.core.frame.DataFrame'>RangeIndex: 106644 entries, 0 to 106643Data columns (total 23 columns): #   Column         Non-Null Count   Dtype  ---  ------         --------------   -----   0   Date           106644 non-null  object  1   Location       106644 non-null  object  2   MinTemp        106183 non-null  float64 3   MaxTemp        106413 non-null  float64 4   Rainfall       105610 non-null  float64 5   Evaporation    60974 non-null   float64 6   Sunshine       55718 non-null   float64 7   WindGustDir    99660 non-null   object  8   WindGustSpeed  99702 non-null   float64 9   WindDir9am     99166 non-null   object  10  WindDir3pm     103788 non-null  object  11  WindSpeed9am   105643 non-null  float64 12  WindSpeed3pm   104653 non-null  float64 13  Humidity9am    105327 non-null  float64 14  Humidity3pm    103932 non-null  float64 15  Pressure9am    96107 non-null   float64 16  Pressure3pm    96123 non-null   float64 17  Cloud9am       66303 non-null   float64 18  Cloud3pm       63691 non-null   float64 19  Temp9am        105983 non-null  float64 20  Temp3pm        104599 non-null  float64 21  RainToday      105610 non-null  object  22  RainTomorrow   106644 non-null  object dtypes: float64(16), object(7)memory usage: 18.7+ MB
## 进行简略的数据查看,咱们能够利用 .head() 头部.tail()尾部data.head()

<div>
<style scoped>

.dataframe tbody tr th:only-of-type {    vertical-align: middle;}.dataframe tbody tr th {    vertical-align: top;}.dataframe thead th {    text-align: right;}

</style>

DateLocationMinTempMaxTempRainfallEvaporationSunshineWindGustDirWindGustSpeedWindDir9am...Humidity9amHumidity3pmPressure9amPressure3pmCloud9amCloud3pmTemp9amTemp3pmRainTodayRainTomorrow
02012/1/19MountGinini12.123.10.0NaNNaNW30.0N...60.054.0NaNNaNNaNNaN17.022.0NoNo
12015/4/13Nhil10.224.70.0NaNNaNE39.0E...63.033.01021.91017.9NaNNaN12.523.7NoYes
22010/8/5Nuriootpa-0.411.03.60.41.6W28.0N...97.078.01025.91025.37.08.03.99.0YesNo
32013/3/18Adelaide13.222.60.015.411.0SE44.0E...47.034.01025.01022.2NaNNaN15.221.7NoNo
42011/2/16Sale14.128.60.06.66.7E28.0NE...92.042.01018.01014.14.07.019.128.2NoNo

<p>5 rows × 23 columns</p>
</div>

这里咱们发现数据集中存在NaN,个别的咱们认为NaN在数据集中代表了缺失值,可能是数据采集或解决时产生的一种谬误。这里咱们采纳-1将缺失值进行填补,还有其余例如“中位数填补、平均数填补”的缺失值解决办法有趣味的同学也能够尝试。

data = data.fillna(-1)
data.tail()

<div>
<style scoped>

.dataframe tbody tr th:only-of-type {    vertical-align: middle;}.dataframe tbody tr th {    vertical-align: top;}.dataframe thead th {    text-align: right;}

</style>

DateLocationMinTempMaxTempRainfallEvaporationSunshineWindGustDirWindGustSpeedWindDir9am...Humidity9amHumidity3pmPressure9amPressure3pmCloud9amCloud3pmTemp9amTemp3pmRainTodayRainTomorrow
1066392011/5/23Launceston10.116.115.8-1.0-1.0SE31.0NNW...99.086.0999.2995.2-1.0-1.013.015.6YesYes
1066402014/12/9GoldCoast19.331.736.0-1.0-1.0SE80.0NNW...75.076.01013.81010.0-1.0-1.026.025.8YesYes
1066412014/10/7Wollongong17.522.21.2-1.0-1.0WNW65.0WNW...61.056.01008.21008.2-1.0-1.017.821.4YesNo
1066422012/1/16Newcastle17.627.03.0-1.0-1.0-1-1.0NE...68.088.0-1.0-1.06.05.022.626.4YesNo
1066432014/10/21AliceSprings16.337.90.014.212.2ESE41.0NNE...8.06.01017.91014.00.01.032.235.7NoNo

<p>5 rows × 23 columns</p>
</div>

## 利用value_counts函数查看训练集标签的数量pd.Series(data['RainTomorrow']).value_counts()
No     82786Yes    23858Name: RainTomorrow, dtype: int64

咱们发现数据集中的负样本数量远大于正样本数量,这种常见的问题叫做“数据不均衡”问题,在某些状况下须要进行一些非凡解决。

## 对于特色进行一些统计形容data.describe()

<div>
<style scoped>

.dataframe tbody tr th:only-of-type {    vertical-align: middle;}.dataframe tbody tr th {    vertical-align: top;}.dataframe thead th {    text-align: right;}

</style>

MinTempMaxTempRainfallEvaporationSunshineWindGustSpeedWindSpeed9amWindSpeed3pmHumidity9amHumidity3pmPressure9amPressure3pmCloud9amCloud3pmTemp9amTemp3pm
count106644.000000106644.000000106644.000000106644.000000106644.000000106644.000000106644.000000106644.000000106644.000000106644.000000106644.000000106644.000000106644.000000106644.000000106644.000000106644.000000
mean12.12914723.1833982.3139122.7047983.50900837.30513713.85220018.26537867.94035350.104657917.003689914.9953852.3812312.28567016.87784221.257600
std6.4443587.2085968.3791454.5191725.10569616.5853108.9496599.11883520.48157922.136917304.042528303.1207313.4837513.4196586.6298117.549532
min-8.500000-4.800000-1.000000-1.000000-1.000000-1.000000-1.000000-1.000000-1.000000-1.000000-1.000000-1.000000-1.000000-1.000000-7.200000-5.400000
25%7.50000017.9000000.000000-1.000000-1.00000030.0000007.00000011.00000056.00000035.0000001011.0000001008.500000-1.000000-1.00000012.20000016.300000
50%12.00000022.6000000.0000001.6000000.20000037.00000013.00000017.00000070.00000051.0000001016.7000001014.2000001.0000001.00000016.70000020.900000
75%16.80000028.3000000.6000005.4000008.70000046.00000019.00000024.00000083.00000065.0000001021.8000001019.4000006.0000006.00000021.50000026.300000
max31.90000048.100000268.600000145.00000014.500000135.000000130.00000087.000000100.000000100.0000001041.0000001039.6000009.0000009.00000039.40000046.200000

</div>

Step4:可视化形容

为了不便,咱们先纪录数字特色与非数字特色:

numerical_features = [x for x in data.columns if data[x].dtype == np.float]
category_features = [x for x in data.columns if data[x].dtype != np.float and x != 'RainTomorrow']
## 选取三个特色与标签组合的散点可视化sns.pairplot(data=data[['Rainfall','Evaporation','Sunshine'] + ['RainTomorrow']], diag_kind='hist', hue= 'RainTomorrow')plt.show()

从上图能够发现,在2D状况下不同的特色组合对于第二天下雨与不下雨的散点散布,以及大略的辨别能力。绝对的Sunshine与其余特色的组合更具备辨别能力

for col in data[numerical_features].columns:    if col != 'RainTomorrow':        sns.boxplot(x='RainTomorrow', y=col, saturation=0.5, palette='pastel', data=data)        plt.title(col)        plt.show()




利用箱型图咱们也能够失去不同类别在不同特色上的散布差别状况。咱们能够发现Sunshine,Humidity3pm,Cloud9am,Cloud3pm的辨别能力较强

tlog = {}for i in category_features:    tlog[i] = data[data['RainTomorrow'] == 'Yes'][i].value_counts()flog = {}for i in category_features:    flog[i] = data[data['RainTomorrow'] == 'No'][i].value_counts()
plt.figure(figsize=(10,10))plt.subplot(1,2,1)plt.title('RainTomorrow')sns.barplot(x = pd.DataFrame(tlog['Location']).sort_index()['Location'], y = pd.DataFrame(tlog['Location']).sort_index().index, color = "red")plt.subplot(1,2,2)plt.title('Not RainTomorrow')sns.barplot(x = pd.DataFrame(flog['Location']).sort_index()['Location'], y = pd.DataFrame(flog['Location']).sort_index().index, color = "blue")plt.show()

从上图能够发现不同地区降雨状况差异很大,有些中央显著更容易降雨

plt.figure(figsize=(10,2))plt.subplot(1,2,1)plt.title('RainTomorrow')sns.barplot(x = pd.DataFrame(tlog['RainToday'][:2]).sort_index()['RainToday'], y = pd.DataFrame(tlog['RainToday'][:2]).sort_index().index, color = "red")plt.subplot(1,2,2)plt.title('Not RainTomorrow')sns.barplot(x = pd.DataFrame(flog['RainToday'][:2]).sort_index()['RainToday'], y = pd.DataFrame(flog['RainToday'][:2]).sort_index().index, color = "blue")plt.show()

上图咱们能够发现,明天下雨今天不肯定下雨,但明天不下雨,第二天大概率也不下雨。

3.2 特征向量编码

Step5:对离散变量进行编码

因为XGBoost无奈解决字符串类型的数据,咱们须要一些办法讲字符串数据转化为数据。一种最简略的办法是把所有的雷同类别的特色编码成同一个值,例如女=0,男=1,狗狗=2,所以最初编码的特征值是在$[0, 特色数量-1]$之间的整数。除此之外,还有独热编码、求和编码、留一法编码等等办法能够取得更好的成果。

## 把所有的雷同类别的特色编码为同一个值def get_mapfunction(x):    mapp = dict(zip(x.unique().tolist(),         range(len(x.unique().tolist()))))    def mapfunction(y):        if y in mapp:            return mapp[y]        else:            return -1    return mapfunctionfor i in category_features:    data[i] = data[i].apply(get_mapfunction(data[i]))
## 编码后的字符串特色变成了数字data['Location'].unique()
array([ 0,  1,  2,  3,  4,  5,  6,  7,  8,  9, 10, 11, 12, 13, 14, 15, 16,       17, 18, 19, 20, 21, 22, 23, 24, 25, 26, 27, 28, 29, 30, 31, 32, 33,       34, 35, 36, 37, 38, 39, 40, 41, 42, 43, 44, 45, 46, 47, 48])

3.3 模型训练预测

Step6:利用 XGBoost 进行训练与预测

## 为了正确评估模型性能,将数据划分为训练集和测试集,并在训练集上训练模型,在测试集上验证模型性能。from sklearn.model_selection import train_test_split## 抉择其类别为0和1的样本 (不包含类别为2的样本)data_target_part = data['RainTomorrow']data_features_part = data[[x for x in data.columns if x != 'RainTomorrow']]## 测试集大小为20%, 80%/20%分x_train, x_test, y_train, y_test = train_test_split(data_features_part, data_target_part, test_size = 0.2, random_state = 2020)
#查看标签数据print(y_train[0:2],y_test[0:2])# 替换Yes为1,No为0y_train = y_train.replace({'Yes': 1, 'No': 0})y_test  = y_test.replace({'Yes': 1, 'No': 0})# 打印批改后的后果print(y_train[0:2],y_test[0:2])
98173    No33154    NoName: RainTomorrow, dtype: object 10273    Yes90769     NoName: RainTomorrow, dtype: object98173    033154    0Name: RainTomorrow, dtype: int64 10273    190769    0Name: RainTomorrow, dtype: int64
The label for xgboost must consist of integer labels of the form 0, 1, 2, ..., [num_class - 1]. This means that the labels must be sequential integers starting from 0 up to the total number of classes minus 1. For example, if there are 3 classes, the labels should be 0, 1, and 2. If the labels are not in this format, xgboost may not be able to train the model properly.
## 导入XGBoost模型from xgboost.sklearn import XGBClassifier## 定义 XGBoost模型 clf = XGBClassifier(use_label_encoder=False)# 在训练集上训练XGBoost模型clf.fit(x_train, y_train)#https://cloud.tencent.com/developer/ask/sof/913362/answer/1303557
[17:34:10] WARNING: ../src/learner.cc:1061: Starting in XGBoost 1.3.0, the default evaluation metric used with the objective 'binary:logistic' was changed from 'error' to 'logloss'. Explicitly set eval_metric if you'd like to restore the old behavior.XGBClassifier(base_score=0.5, booster='gbtree', colsample_bylevel=1,              colsample_bynode=1, colsample_bytree=1, gamma=0, gpu_id=-1,              importance_type='gain', interaction_constraints='',              learning_rate=0.300000012, max_delta_step=0, max_depth=6,              min_child_weight=1, missing=nan, monotone_constraints='()',              n_estimators=100, n_jobs=24, num_parallel_tree=1, random_state=0,              reg_alpha=0, reg_lambda=1, scale_pos_weight=1, subsample=1,              tree_method='exact', use_label_encoder=False,              validate_parameters=1, verbosity=None)
## 在训练集和测试集上散布利用训练好的模型进行预测train_predict = clf.predict(x_train)test_predict = clf.predict(x_test)from sklearn import metrics## 利用accuracy(准确度)【预测正确的样本数目占总预测样本数目标比例】评估模型成果print('The accuracy of the Logistic Regression is:',metrics.accuracy_score(y_train,train_predict))print('The accuracy of the Logistic Regression is:',metrics.accuracy_score(y_test,test_predict))## 查看混同矩阵 (预测值和实在值的各类状况统计矩阵)confusion_matrix_result = metrics.confusion_matrix(test_predict,y_test)print('The confusion matrix result:\n',confusion_matrix_result)# 利用热力求对于后果进行可视化plt.figure(figsize=(8, 6))sns.heatmap(confusion_matrix_result, annot=True, cmap='Blues')plt.xlabel('Predicted labels')plt.ylabel('True labels')plt.show()
The accuracy of the Logistic Regression is: 0.8982476703979371The accuracy of the Logistic Regression is: 0.8575179333302076The confusion matrix result: [[15656  2142] [  897  2634]]

咱们能够发现共有15759 + 2306个样本预测正确,2470 + 794个样本预测谬误。

3.3.1 特征选择

Step7: 利用 XGBoost 进行特征选择

XGBoost的特征选择属于特征选择中的嵌入式办法,在XGboost中能够用属性feature_importances_去查看特色的重要度。

? sns.barplot
sns.barplot(y=data_features_part.columns, x=clf.feature_importances_)

从图中咱们能够发现下午3点的湿度与明天是否下雨是决定第二天是否下雨最重要的因素

首次之外,咱们还能够应用XGBoost中的下列重要属性来评估特色的重要性。

  • weight:是以特色用到的次数来评估
  • gain:当利用特色做划分的时候的评估基尼指数
  • cover:利用一个笼罩样本的指标二阶导数(具体原理不分明有待探索)平均值来划分。
  • total_gain:总基尼指数
  • total_cover:总笼罩
from sklearn.metrics import accuracy_scorefrom xgboost import plot_importancedef estimate(model,data):    #sns.barplot(data.columns,model.feature_importances_)    ax1=plot_importance(model,importance_type="gain")    ax1.set_title('gain')    ax2=plot_importance(model, importance_type="weight")    ax2.set_title('weight')    ax3 = plot_importance(model, importance_type="cover")    ax3.set_title('cover')    plt.show()def classes(data,label,test):    model=XGBClassifier()    model.fit(data,label)    ans=model.predict(test)    estimate(model, data)    return ans ans=classes(x_train,y_train,x_test)pre=accuracy_score(y_test, ans)print('acc=',accuracy_score(y_test,ans))
/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/xgboost/sklearn.py:888: UserWarning: The use of label encoder in XGBClassifier is deprecated and will be removed in a future release. To remove this warning, do the following: 1) Pass option use_label_encoder=False when constructing XGBClassifier object; and 2) Encode your labels (y) as integers starting with 0, i.e. 0, 1, 2, ..., [num_class - 1].  warnings.warn(label_encoder_deprecation_msg, UserWarning)[17:34:28] WARNING: ../src/learner.cc:1061: Starting in XGBoost 1.3.0, the default evaluation metric used with the objective 'binary:logistic' was changed from 'error' to 'logloss'. Explicitly set eval_metric if you'd like to restore the old behavior.



acc= 0.8575179333302076

这些图同样能够帮忙咱们更好的理解其余重要特色。

Step8: 通过调整参数取得更好的成果

XGBoost中包含但不限于下列对模型影响较大的参数:

1. learning_rate: 有时也叫作eta,零碎默认值为0.3。每一步迭代的步长,很重要。太大了运行准确率不高,太小了运行速度慢。2. subsample:零碎默认为1。这个参数管制对于每棵树,随机采样的比例。减小这个参数的值,算法会更加激进,防止过拟合, 取值范畴零到一。3. colsample_bytree:零碎默认值为1。咱们个别设置成0.8左右。用来管制每棵随机采样的列数的占比(每一列是一个特色)。4. max_depth: 零碎默认值为6,咱们罕用3-10之间的数字。这个值为树的最大深度。这个值是用来管制过拟合的。max_depth越大,模型学习的更加具体。

3.3.2 外围参数调优

1.eta[默认0.3]
通过为每一颗树减少权重,进步模型的鲁棒性。
典型值为0.01-0.2。

2.min_child_weight[默认1]
决定最小叶子节点样本权重和。
这个参数能够防止过拟合。当它的值较大时,能够防止模型学习到部分的非凡样本。
然而如果这个值过高,则会导致模型拟合不充沛。

3.max_depth[默认6]
这个值也是用来防止过拟合的。max_depth越大,模型会学到更具体更部分的样本。
典型值:3-10

4.max_leaf_nodes
树上最大的节点或叶子的数量。
能够代替max_depth的作用。
这个参数的定义会导致疏忽max_depth参数。

5.gamma[默认0]
在节点决裂时,只有决裂后损失函数的值降落了,才会决裂这个节点。Gamma指定了节点决裂所需的最小损失函数降落值。
这个参数的值越大,算法越激进。这个参数的值和损失函数非亲非故。

6.max_delta_step[默认0]
这参数限度每棵树权重扭转的最大步长。如果这个参数的值为0,那就意味着没有束缚。如果它被赋予了某个正值,那么它会让这个算法更加激进。
然而当各类别的样本非常不均衡时,它对分类问题是很有帮忙的。

7.subsample[默认1]
这个参数管制对于每棵树,随机采样的比例。
减小这个参数的值,算法会更加激进,防止过拟合。然而,如果这个值设置得过小,它可能会导致欠拟合。
典型值:0.5-1

8.colsample_bytree[默认1]
用来管制每棵随机采样的列数的占比(每一列是一个特色)。
典型值:0.5-1

9.colsample_bylevel[默认1]
用来管制树的每一级的每一次决裂,对列数的采样的占比。
subsample参数和colsample_bytree参数能够起到雷同的作用,个别用不到。

10.lambda[默认1]
权重的L2正则化项。(和Ridge regression相似)。
这个参数是用来管制XGBoost的正则化局部的。尽管大部分数据科学家很少用到这个参数,然而这个参数在缩小过拟合上还是能够挖掘出更多用处的。

11.alpha[默认1]
权重的L1正则化项。(和Lasso regression相似)。
能够利用在很高维度的状况下,使得算法的速度更快。

12.scale_pos_weight[默认1]
在各类别样本非常不均衡时,把这个参数设定为一个正值,能够使算法更快收敛。

3.3.3 网格调参法

调节模型参数的办法有贪婪算法、网格调参、贝叶斯调参等。这里咱们采纳网格调参,它的根本思维是穷举搜寻:在所有候选的参数抉择中,通过循环遍历,尝试每一种可能性,体现最好的参数就是最终的后果

## 从sklearn库中导入网格调参函数from sklearn.model_selection import GridSearchCV## 定义参数取值范畴learning_rate = [0.1, 0.3,]subsample = [0.8]colsample_bytree = [0.6, 0.8]max_depth = [3,5]parameters = { 'learning_rate': learning_rate,              'subsample': subsample,              'colsample_bytree':colsample_bytree,              'max_depth': max_depth}model = XGBClassifier(n_estimators = 20)## 进行网格搜寻clf = GridSearchCV(model, parameters, cv=3, scoring='accuracy',verbose=1,n_jobs=-1)clf = clf.fit(x_train, y_train)
## 网格搜寻后的最好参数为clf.best_params_
## 在训练集和测试集上散布利用最好的模型参数进行预测## 定义带参数的 XGBoost模型 clf = XGBClassifier(colsample_bytree = 0.6, learning_rate = 0.3, max_depth= 8, subsample = 0.9)# 在训练集上训练XGBoost模型clf.fit(x_train, y_train)train_predict = clf.predict(x_train)test_predict = clf.predict(x_test)## 利用accuracy(准确度)【预测正确的样本数目占总预测样本数目标比例】评估模型成果print('The accuracy of the Logistic Regression is:',metrics.accuracy_score(y_train,train_predict))print('The accuracy of the Logistic Regression is:',metrics.accuracy_score(y_test,test_predict))## 查看混同矩阵 (预测值和实在值的各类状况统计矩阵)confusion_matrix_result = metrics.confusion_matrix(test_predict,y_test)print('The confusion matrix result:\n',confusion_matrix_result)# 利用热力求对于后果进行可视化plt.figure(figsize=(8, 6))sns.heatmap(confusion_matrix_result, annot=True, cmap='Blues')plt.xlabel('Predicted labels')plt.ylabel('True labels')plt.show()
/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/xgboost/sklearn.py:888: UserWarning: The use of label encoder in XGBClassifier is deprecated and will be removed in a future release. To remove this warning, do the following: 1) Pass option use_label_encoder=False when constructing XGBClassifier object; and 2) Encode your labels (y) as integers starting with 0, i.e. 0, 1, 2, ..., [num_class - 1].  warnings.warn(label_encoder_deprecation_msg, UserWarning)[17:55:25] WARNING: ../src/learner.cc:1061: Starting in XGBoost 1.3.0, the default evaluation metric used with the objective 'binary:logistic' was changed from 'error' to 'logloss'. Explicitly set eval_metric if you'd like to restore the old behavior.The accuracy of the Logistic Regression is: 0.9382992439781984The accuracy of the Logistic Regression is: 0.856674011908669The confusion matrix result: [[15611  2115] [  942  2661]]

本来有2470 + 790个谬误,当初有 2112 + 939个谬误,带来了显著的正确率晋升。

更多调参技巧请参考:https://blog.csdn.net/weixin_62684026/article/details/126859262

4. 总结

XGBoost的次要长处:

  1. 简略易用。绝对其余机器学习库,用户能够轻松应用XGBoost并取得相当不错的成果。
  2. 高效可扩大。在解决大规模数据集时速度快成果好,对内存等硬件资源要求不高。
  3. 鲁棒性强。绝对于深度学习模型不须要精密调参便能获得靠近的成果。
  4. XGBoost外部实现晋升树模型,能够主动解决缺失值。

XGBoost的次要毛病:

  1. 绝对于深度学习模型无奈对时空地位建模,不能很好地捕捉图像、语音、文本等高维数据。
  2. 在领有海量训练数据,并能找到适合的深度学习模型时,深度学习的精度能够遥遥领先XGBoost。

本我的项目链接:https://www.heywhale.com/home/column/64141d6b1c8c8b518ba97dcc

参考链接:https://tianchi.aliyun.com/course/278/3423


自己最近打算整合ML、DRL、NLP等相干畛域的体系化我的项目课程,不便入门同学疾速把握相干常识。申明:局部我的项目为网络经典我的项目不便大家疾速学习,后续会一直削减实战环节(较量、论文、事实利用等)。

  • 对于机器学习这块布局为:根底入门机器学习算法--->简略我的项目实战--->数据建模较量----->相干事实中利用场景问题解决。一条路线帮忙大家学习,疾速实战。
  • 对于深度强化学习这块布局为:根底单智能算法教学(gym环境为主)---->支流多智能算法教学(gym环境为主)---->单智能多智能题实战(论文复现偏业务如:无人机优化调度、电力资源调度等我的项目利用)
  • 自然语言解决相干布局:除了单点算法技术外,次要围绕常识图谱构建进行:信息抽取相干技术(含智能标注)--->常识交融---->常识推理---->图谱利用

上述对于你把握后的期许:

  1. 对于ML,心愿你后续能够乱杀数学建模相干较量(加入就获奖保底,top还是难的须要钻研)
  2. 能够理论解决事实中一些优化调度问题,而非停留在gym环境下的一些游戏demo玩玩。(更深层次可能须要本人钻研了,难度还是很大的)
  3. 把握可常识图谱全流程构建其中各个重要环节算法,蕴含图数据库相干常识。

这三块畛域耦合状况比拟大,后续会通过比方:搜寻举荐零碎整个我的项目进行耦合,各项算法都会耦合在其中。举例:常识图谱就会用到(图算法、NLP、ML相干算法),搜寻举荐零碎(除了该畛域召回粗排精排重排混排等算法外,还有强化学习、常识图谱等耦合在其中)。饼画的有点大,前面缓缓实现。