应用 TensorFlow 训练、调优、评估、解释和部署基于树的模型的残缺教程
两年前 TensorFlow (TF)团队开源了一个库来训练基于树的模型,称为 TensorFlow 决策森林 (TFDF)。通过了 2 年的测试,他们在上个月终于发表这个包曾经筹备好公布了,也就是说咱们能够真正的开始应用了。所以这篇文章将具体介绍这个软件包,并向你展现如何(无效地) 应用它。
在这篇文章中,咱们将应用美国小企业管理局数据集训练一些贷款守约预测模型。模型将应用曾经预处理的数据进行训练。装置 TensorFlow 决策森林非常简单,只需运行
pip install tensorflow_decision_forests
。
TensorFlow Decision Forest
1、什么是 TFDF?
TensorFlow 决策森林实际上是建设在 c ++ 的 Yggdrasil 决策森林之上库的,Yggdrasil 决策森林也是由谷歌开发的。最后的 c ++ 算法旨在构建可扩大的决策树模型,能够解决大型数据集和高维特色空间。通过将这个库集成到更宽泛的 TF 生态系统中,用户无需学习另一种语言就能够轻松地构建可扩大的 RF 和 GBT 模型。
2、为什么要用它?
与 XGBoost 或 LightGBM 相比,这个库的次要劣势在于它与其余 TF 生态系统组件严密集成。对于曾经将其余 TensorFlow 模型作为管道的一部分或应用 TFX 的团队来说,这是十分有用的,因为 TFDF 能够很容易地与 NLP 模型集成。如果你正在应用 TF Serving 为模型提供对外服务,这个库也是能够用的,因为它是官网的原生反对 (不须要 ONNX 或其余跨包序列化办法) 模型的部署。最初这个库为还提供了大量参数,能够依据 XGBoost、LightGBM 和许多其余梯度加强机 (GBM) 办法来调整取得近似模型。这意味着不须要在训练过程中在不同的 GBM 库之间切换,这从代码可维护性的角度来说十分好。
模型训练
1、数据筹备
咱们应用了数据处理后的版本,所以不须要进行数据的预处理:
# Read in data
train_data: pd.DataFrame=pd.read_parquet("../data/train_data.parquet")
val_data: pd.DataFrame=pd.read_parquet("../data/val_data.parquet")
test_data: pd.DataFrame=pd.read_parquet("../data/test_data.parquet")
# Set data types
NUMERIC_FEATURES= [
"Term",
"NoEmp",
"CreateJob",
"RetainedJob",
"longitude",
"latitude",
"GrAppv",
"SBA_Appv",
"is_new",
"same_state",
]
CATEGORICAL_FEATURES= [
"FranchiseCode",
"UrbanRural",
"City",
"State",
"Bank",
"BankState",
"RevLineCr",
"naics_first_two",
]
TARGET="is_default"
# Make sure that datatypes are consistent
dsets= [train_data,val_data,test_data]
fordindsets:
d[NUMERIC_FEATURES] =d[NUMERIC_FEATURES].astype(np.float32)
d[CATEGORICAL_FEATURES] =d[CATEGORICAL_FEATURES].astype(str)
2、特色
为了确保我的项目构造良好并防止意外行为,能够为每个个性指定一个 FeatureUsage,只管这不是强制性的,然而应用这种办法能够让咱们的我的项目更加标准。并且这也是一项简略的工作: 只须要从反对的六种类型 (BOOLEAN、CATEGORICAL、CATEGORICAL_SET、DISCRETIZED_NUMERICAL、HASH 和 NUMERICAL) 中决定将哪些特色类型调配给哪个类型就能够了。其中一些类型带有额定的参数,所以请确保在这里浏览更多对于它们的信息。
在本例中咱们将放弃简略,只应用数值和类别数据类型,然而须要阐明下 DISCRETIZED_NUMERICAL,它能够显著放慢训练过程(相似于 LightGBM)。咱们应用的代码如下,指定所选的数据类型,对于类别特色,还要指定 min_vocab_frequency 参数以去除常见值。
importtensorflow_decision_forestsastfdf
# Prepare Feature Usage list
feature_usages= []
# Numerical features
forfeature_nameinNUMERIC_FEATURES:
feature_usage=tfdf.keras.FeatureUsage(name=feature_name, semantic=tfdf.keras.FeatureSemantic.NUMERICAL)
feature_usages.append(feature_usage)
# Categorical features
forfeature_nameinCATEGORICAL_FEATURES:
feature_usage=tfdf.keras.FeatureUsage(
name=feature_name,
semantic=tfdf.keras.FeatureSemantic.CATEGORICAL,
min_vocab_frequency=1000,
)
feature_usages.append(feature_usage)
3、应用 TF Dataset 读取数据
读取数据的最简略办法是应用 TF Dataset。TFDF 有一个十分好的实用函数 pd_dataframe_to_tf_dataset,它使这一步变得非常简单。
# Use TF Dataset to read in data
train_dataset=tfdf.keras.pd_dataframe_to_tf_dataset(train_data, label=TARGET, weight=None, batch_size=1000)
val_dataset=tfdf.keras.pd_dataframe_to_tf_dataset(val_data, label=TARGET, weight=None, batch_size=1000)
test_dataset=tfdf.keras.pd_dataframe_to_tf_dataset(test_data, label=TARGET, weight=None, batch_size=1000)
在下面的代码中,咱们将 DataFrame 对象传递到函数中,并提供以下参数:
- label 列的名称
- weight 列的名称(在本例中为 None)
- 批大小(有助于放慢数据的读取)
失去的数据集是就是 TF Dataset 的格局。也能够创立本人的办法来读取数据集,但必须特地留神输入的格局,没有这个办法这样不便。
3、TFDF 默认参数
## Define the models
# Gradient Boosted Trees model
gbt_model=tfdf.keras.GradientBoostedTreesModel(
features=feature_usages,
exclude_non_specified_features=True,
)
# Random Forest modle
rf_model=tfdf.keras.RandomForestModel(
features=feature_usages,
exclude_non_specified_features=True,
)
# Compile the models (Optional)
gbt_model.compile(metrics=[tf.keras.metrics.AUC(curve="PR")])
rf_model.compile(metrics=[tf.keras.metrics.AUC(curve="PR")])
# Fit the models
gbt_model.fit(train_dataset, validation_data=val_dataset)
rf_model.fit(train_dataset, validation_data=val_dataset)
只须要几行代码就能够应用默认参数构建和训练 GBT 和 RF 模型。当应用 ROC 和 PR auc 评估这两个模型时能够看到性能曾经相当好了。
# GBT with Default Parameters
PR AUC: 0.8367
ROC AUC: 0.9583
# RF with Default Parameters
PR AUC: 0.8102
ROC AUC: 0.9453
那么是否能够进行超参数调优进一步改善这些后果呢。
超参数调优
Yggdrasil 官网文档中有大量的参数能够进行调优,每一个参数都有很好的解释。TFDF 也提供了一些内置选项来调优参数,为了简略也应用超参数的搜寻库,例如 Optuna 或 Hyperpot。
1、超参数模板
TFDF 提供的十分好个性就是超参数模板。这些参数在论文中被证实在宽泛的数据集上体现最好。有两个可用的模板:better_default 和 benchmark_rank。如果你工夫不够,或者对机器学习不太熟悉,这是一个不错的抉择。指定这些参数只须要一行代码。
# Define the models
better_default_gbt_model=tfdf.keras.GradientBoostedTreesModel(
hyperparameter_template='better_default', # template 1
features=feature_usages,
exclude_non_specified_features=True,
)
benchmark_gbt_model=tfdf.keras.GradientBoostedTreesModel(
hyperparameter_template='benchmark_rank1', # template 2
features=feature_usages,
exclude_non_specified_features=True,
)
# Fit the models (notice that we're skipping compiling step)
better_default_gbt_model.fit(train_dataset, validation_data=val_dataset)
benchmark_gbt_model.fit(train_dataset, validation_data=val_dataset)
看看后果怎么样:应用 better_default 参数,在 ROC 和 PR auc 中失去轻微的晋升。benchmark_rank 参数的性能要差得多。这就是为什么在部署后果模型之前正确地评估它们是很重要的。
GBT with 'Better Default' Parameters
PR AUC: 0.8483
ROC AUC: 0.9593
GBT with 'Benchmark Rank 1' Parameters
PR AUC: 0.7869
ROC AUC: 0.9442
2、定义搜寻空间
TFDF 附带了一个很好的程序,叫做 RandomSearch,它在许多可用参数之间执行随机网格搜寻。TFDF 能够应用预约义的搜寻空间或者通过一个选项能够手动指定这些参数(见示例)。如果您不太熟悉 ML,这可能是一个很好的抉择,因为它不须要手动设置这些参数。
# Create a Random Search tuner with 50 trials and automatic hp configuration.
tuner=tfdf.tuner.RandomSearch(num_trials=50, use_predefined_hps=True)
# Define and train the model.
tuned_model=tfdf.keras.GradientBoostedTreesModel(tuner=tuner)
tuned_model.fit(train_dataset, validation_data=val_dataset, verbose=2)
留神:无论那个超参数搜寻都会消耗大量的工夫,所以请依据模型审慎抉择。
进行完搜寻后,能够应用上面的命令查看所有尝试过的组合。
tuning_logs = tuned_model.make_inspector().tuning_logs()
咱们进行了 12 次迭代,最佳模型的体现比基线稍差,所以请审慎应用内置的调优办法,倡议应用其余库,比方 Optuna。
PR AUC: 0.8216
ROC AUC: 0.9418
3、optuna
上面咱们介绍如何应用 optuna 进行调优。
importoptuna
defobjective(trial: optuna.Trial) ->float:
params= {"max_depth": trial.suggest_int("max_depth", 2, 10),
"l1_regularization": trial.suggest_float("l1_regularization", 0.01, 20),
"l2_regularization": trial.suggest_float("l2_regularization", 0.01, 20),
"growing_strategy": trial.suggest_categorical("growing_strategy", ["LOCAL", "BEST_FIRST_GLOBAL"]
),
"loss": trial.suggest_categorical("loss", ["BINOMIAL_LOG_LIKELIHOOD", "BINARY_FOCAL_LOSS"]
),
"min_examples": trial.suggest_int("min_examples", 5, 1000, step=5),
"focal_loss_alpha": trial.suggest_float("focal_loss_alpha", 0.05, 0.6),
"num_candidate_attributes_ratio": trial.suggest_float("num_candidate_attributes_ratio", 0.05, 0.95),
"shrinkage": trial.suggest_float("shrinkage", 0.01, 0.9),
"early_stopping_num_trees_look_ahead": 50,
"num_trees": 2000,
}
model=tfdf.keras.GradientBoostedTreesModel(**params)
model.fit(train_dataset, validation_data=val_dataset, verbose=0)
preds=model.predict(val_dataset).ravel()
ap=average_precision_score(val_data[TARGET], preds)
returnap
study=optuna.create_study(direction="maximize")
study.optimize(objective, n_trials=50)
这些参数中的大多数对于 gbt 来说是相当规范的,但也有一些值得注意的参数:
- 将 growing_strategy 更改为 BEST_FIRST_GLOBAL(又称为按叶成长),这是 LightGBM 应用的策略。
- 应用 BINARY_FOCAL_LOSS,它应该对不均衡的数据集更好。
- 更改 split_axis 参数以应用 sparse oblique splits,这在论文中证实是十分无效的。
- 应用 honest 参数构建“honest trees”。
能够看到应用最佳参数取得的后果,自定义永远要比主动的好。
GBT with Custom Tuned Parameters
PR AUC: 0.8666
ROC AUC: 0.9631
当初咱们曾经确定了超参数,能够从新训练模型并持续进行咱们的工作。
模型测验
TFDF 提供了一个很好的实用工具来查看经过训练的模型,称为 Inspector,他有 3 个主要用途:
- 查看模型的属性,如类型,树的数量或应用的特色
- 获取个性的重要性
- 提取树结构
1、查看模型属性
inspector 类存储了模型各种属性:模型类型(GBT 或 RF)、树的数量、训练指标以及用于训练模型的特色等等
inspector = manual_tuned.make_inspector()
print("Model type:", inspector.model_type())
print("Number of trees:", inspector.num_trees())
print("Objective:", inspector.objective())
print("Input features:", inspector.features())
或者应用
manual_tuned.summary()
来更具体地查看模型。
2、特色的重要性
像所有其余库一样,TFDF 带有内置的个性重要性评分。对于 gbt,能够拜访 NUM_NODES, SUM_SCORE, INV_MEAN_MIN_DEPTH, NUM_AS_ROOT 办法。须要留神的是,能够在训练期间将 compute_permutation_variable_importance 参数设置为 True,这将增加一些额定的办法,然而模型的训练速度会慢。
defplot_tfdf_importances(inspector: tfdf.inspector.AbstractInspector, importance_type: str):
"""Extracts and plots TFDF importances from the given inspector object
Args:
inspector (tfdf.inspector.AbstractInspector): inspector object created from your TFDF model
importance_type (str): importance type to plotß
"""
try:
importances=inspector.variable_importances()[importance_type]
exceptKeyError:
raiseValueError(f"No {importance_type} importances found in the given inspector object"
)
names= []
scores= []
forfinimportances:
names.append(f[0].name)
scores.append(f[1])
sns.barplot(x=scores, y=names, color="#5a7dbf")
plt.xlabel(importance_type)
plt.title("Variable Importance")
plt.show()
能够看到,Term 变量始终是最重要的特色,紧随其后的是 Bank、State 和 Bank State 等类别变量。然而 TFDF 库最大的毛病之一是不能应用 SHAP,这样可解释性的查看就有一些不不便。
3、查看树的构造
为了解释或模型验证,咱们心愿查看单个树。TFDF 能够不便地拜访所有树。比方 GBT 模型的第一棵树,因为它通常是信息量最大的树。
first_tree=inspector.extract_tree(tree_idx=0)
print(first_tree.pretty())
当解决较大的树时,应用 print 语句查看它们不太不便。TFDF 提供了一个树绘图工具——TFDF .model_plotter
withopen("plot.html", "w") asf:
f.write(tfdf.model_plotter.plot_model(manual_tuned, tree_idx=0, max_depth=4))
这样就不便很多了。
TF Serving
咱们曾经对模型进行了训练、调优和评估。最初的一个工作就是部署了,这部分也很简略,因为 TFDF 是官网的,必然会反对 TF Serving。如果曾经有了一个 TF 服务实例,那么所须要做的就是在 model_base_path 参数中指向要公布的模型。
首先就是保留咱们的模型:
manual_tuned.save("../models/loan_default_model/1/")
而后就是在本地装置 TF services,并应用正确的参数启动它。
./tensorflow_model_server \
--rest_api_port=8501 \
--model_name=loan_default_model \
--model_base_path=/path/models/loan_default_model/1
这里的 model_base_path 肯定要是绝对路径。在 TF 服务服务器启动后,就能够开始接管申请了。有两种预期的格局——实例和输出。
# Input data formatted correctly
data= {"Bank": ["Other"],
"BankState": ["TN"],
"City": ["Other"],
"CreateJob": [12.0],
"FranchiseCode": ["0"],
"GrAppv": [14900000.0],
"NoEmp": [28.0],
"RetainedJob": [16.0],
"RevLineCr": ["N"],
"SBA_Appv": [14900000.0],
"State": ["TN"],
"Term": [240.0],
"UrbanRural": ["0"],
"is_new": [0.0],
"latitude": [35.3468],
"longitude": [-86.22],
"naics_first_two": ["44"],
"same_state": [1.0],
"ApprovalFY": [1]
}
payload= {"inputs": data}
# Send the request
url='http://localhost:8501/v1/models/default_model:predict'
response=requests.post(url, json=payload)
# Print out the response
print(json.loads(response.text)['outputs'])
# Expected output: [[0.0138759678]]
返回的 json 串就蕴含了模型的预测后果。
总结
通过了 2 年的测试,TFDF 终于公布正式版了。它是在 TensorFlow 中基于训练树的模型的一个弱小且可扩大的库。TFDF 模型与 TensorFlow 生态系统的其余局部很好地集成在一起,所以如果你正在应用 TFX,在生产中有其余 TF 模型,或者正在应用 TF 服务,你会发现这个库十分有用。
本文的代码局部并不齐全,如果你想本人摸索,能够在这里下载实现的代码和数据集:
https://avoid.overfit.cn/post/db8eeaae665f410f90111b4ca0017b94
作者:Antons Tocilins-Ruberts