阈值调优是数据迷信中一个重要且必要的步骤。它与应用程序畛域密切相关,并且须要一些畛域内的常识作为参考。在本文中将演示如何通过阈值调优来进步模型的性能。

用于分类的罕用指标

个别状况下咱们都会应用准确率accuracy来评估分类的性能,然而有很多状况下accuracy 不足以报告分类模型的性能,所以就呈现了很多其余的指标:精确度Precision、召回率Recall、F1 分数F1 score和特异性Specificity。除此以外,还有 ROC 曲线、ROC AUC 和 Precision-Recall 曲线等等。

让咱们首先简略解释这些指标和曲线的含意:

精确度Precision:所有正例中真正正例的数量。P=TP/(TP+FP)

召回率Recall:正例数超过真正例数加上假负例数。R=TP/(TP+FN)

F1 分数F1 score:Precision 和 Recall 之间的和谐平均值。

特异性Specificity:真负例的数量超过真负例的数量加上假正例的数量。Spec=TN(TN+FP)

(ROC) 曲线:该曲线显示了真正例率和假正例率之间的衡量。代表模型的性能。

ROC曲线下面积(AUC):ROC曲线下面积。如果这个面积等于 1,咱们就有了一个完满的分类器。如果它等于 0.5,那么就是一个随机的分类器。

Precision-Recall曲线:这条曲线显示了不同阈值下的精度和召回值。它用于可视化 Precision 和 Recall 之间的衡量。

一般来说,咱们必须思考所有这些指标和曲线。为了将这些内容显示在一起查看,这里定义了一个办法:

 def make_classification_score(y_test, predictions, modelName):     tn, fp, fn, tp = confusion_matrix(y_test, predictions).ravel() # ravel() used to convert to a 1-D array     prec=precision_score(y_test, predictions)     rec=recall_score(y_test, predictions)     f1=f1_score(y_test, predictions)     acc=accuracy_score(y_test, predictions)     # specificity     spec=tn/(tn+fp)      score = {'Model': [modelName], 'Accuracy': [acc], 'f1': [f1], 'Recall': [rec], 'Precision': [prec], \         'Specificity': [spec], 'TP': [tp], 'TN': [tn], 'FP': [fp], 'FN': [fn], 'y_test size': [len(y_test)]}     df_score = pd.DataFrame(data=score)     return df_score

“预测概率”技巧

当咱们测试和评估模型时,将预测的 Y 与测试集中的 Y 进行比拟。然而这里不倡议应用 model.predict(X_test) 办法,间接返回每个实例的标签,而是间接返回每个分类的概率。例如sklearn 提供的 model.predict_proba(X_test) 的办法来预测类概率。而后咱们就能够编写一个办法,依据决策阈值参数返回每个实例的最终标签。

 def probs_to_prediction(probs, threshold):     pred=[]     for x in probs[:,1]:         if x>threshold:             pred.append(1)         else:             pred.append(0)     return pred

如果设置thresh = 0.5 那么则和调用 model.predict(X_test) 办法失去的后果是雷同的,然而应用概率咱们能够测试不同的阈值的性能体现。

如果扭转阈值则会扭转模型的性能。这里能够依据应用程序畛域抉择一个阈值来最大化重要的度量(通常是精度或召回率),比方在kaggle的较量中常常会呈现thresh = 0.4xx的状况。

抉择重要的度量

最大化的重要指标是什么呢?如何确定?

在二元分类工作中,咱们的模型会呈现两种类型的谬误:

第一类谬误:预测Y为True,但它实际上是False。也称为假正例谬误。

第二类谬误:预测Y为False,但它实际上是True。也称为假负例谬误。

谬误分类实例的数量决定了模型的好坏。但这些谬误并不同等重要,对于不必的畛域有着不同的要求,比方医学的检测和金融的风控中,须要尽量减小假负例也就是防止第二类谬误,须要最小化假负例的数量,那么最大化的重要指标是召回率。

同理,如果要防止第一类谬误,咱们须要最小化假正例的数量,所以最大化的重要指标是精度。

为了最大化指标,咱们能够挪动阈值,直到咱们在所有指标之间达成良好的均衡,这时就能够应用Precision-Recall曲线,当然也能够应用ROC曲线。

然而要阐明的是,咱们不能最大化所有指标,因为通过指标的定义就能看到这是不可能的。

阈值优化

假如咱们正在解决一个二元分类工作的逻辑回归模型。咱们曾经进行了训练、超参数调优和测试阶段。该模型曾经过穿插验证。也就是说,基本上能做的事件咱们都曾经做了,然而还是心愿可能有一些其余的形式来优化模型,那么则能够试试调整模型的阈值。

对于sklearn来说应用model.predict_proba(X_test)办法来取得类概率,如果应用神经网络的化个别都会输入的是每个类的概率,所以咱们这里以sklearn为例,应用这个概率值:

  • 计算ROC AUC,它等于0.9794
  • 计算并绘制ROC曲线
  • 计算并绘制精度-召回率曲线

上面的代码块示意这些步骤:

 def probs_to_prediction(probs, threshold):     pred=[]     for x in probs[:,1]:         if x>threshold:             pred.append(1)         else:             pred.append(0)     return pred  # getting predicted probability values probability = model.predict_proba(X_test)  # calculate ROC AUC score. AUC = 0.9794 print("Logit: ROC AUC = %.4f" % roc_auc_score(y_test, probability[:, 1]))  # calculate and plot the ROC curve model_fpr, model_tpr, _ = roc_curve(y_test, probability[:, 1]) plt.plot(model_fpr, model_tpr, marker='.', label='Logit') plt.xlabel('False Positive Rate') plt.ylabel('True Positive Rate (recall)') plt.legend() plt.title("ROC Curve") plt.show()  # calculate and plot the Precision-Recall curve model_precision, model_recall, thresholds = precision_recall_curve(y_test, probability[:, 1]) plt.plot(model_recall, model_precision, marker='.', label='Logit') plt.xlabel('Recall') plt.ylabel('Precision') plt.legend() plt.title('Precision-Recall Curve') plt.show()

下图的曲线。能够看到模型的性能很好。

在本例中,假如在咱们的理论利用中FP的老本> FN的老本,所以抉择一个阈值在不升高召回率的状况下最大化精度。应用Precision-Recall曲线来对一个可能的阈值进行初始抉择。在上面的代码中,绘制了带有候选阈值的Precision-Recall曲线。

 plt.plot(model_recall, model_precision, marker='.', label='Logit') plt.plot(model_recall[43000], model_precision[43000], "ro", label="threshold") plt.xlabel('Recall') plt.ylabel('Precision') plt.legend() plt.title('Precision and Recall values for a chosen Threshold') plt.show()

这样就能够应用选定的阈值来取得最终的分类标签并计算性能指标。并且能够屡次进行抉择不同阈值进行比照。

 print("Threshold value = %.4f" % thresholds[43000])  # results with the chosen threshold predictions = probs_to_prediction(probability, thresholds[43000]) make_classification_score(y_test, predictions, "logit, custom t")

下图中能够看到,所选的阈值以召回率为代价来最大化精度。依据咱们利用的决策阈值,雷同的模型能够体现出一些不同的性能。

通过调整阈值并进行后果的比照,一旦对后果称心,模型就能够投入到生产中了。

总结

为分类模型抉择最重要的评估指标并不容易。这种抉择通常与应用程序畛域无关,必须思考谬误分类的代价。在某些状况下,可能有必要征询领域专家确定哪些谬误代表最大的危险。

模型的行为很大水平上受到阈值抉择的影响,咱们能够利用不同的技术来评估模型并调优阈值以取得预期的后果。

https://avoid.overfit.cn/post/81f1646e48c341358391a9a1d3a2dcfd

作者:Edoardo Bianchi