关于机器学习:MindSpore分类指标总结三

4次阅读

共计 2719 个字符,预计需要花费 7 分钟才能阅读完成。

一、摘要

通过之前两篇分类评估指标的分享,咱们曾经根本理解到每个评估指标表达式的意义,那么本次分享咱们将通过列举事实中的例子,联合不同的场景,体验不同指标的意义。

MindSpore 分类指标之准确率、AUC/ROC 详解(一)

MindSpore 分类指标之精准率、召回率和 F 值详解(二)

二、评估指标汇总

首先展现出咱们分类模型中的混同矩阵,上面各种分类指标公式都将联合混同矩阵进行示意。

image.png

图 1 - 混同矩阵

TP、FN、FP、TN 的解释:

(1)若一个实例是正类,并且被预测为正类,即为真正类 TP(True Positive)

(2)若一个实例是正类,然而被预测为负类,即为假负类 FN(False Negative)

(3)若一个实例是负类,然而被预测为正类,即为假正类 FP(False Positive)

(4)若一个实例是负类,并且被预测为负类,即为真负类 TN(True Negative)

例子一:假如咱们想要炒股,那么咱们当初就要开始钻研不同公司股价的涨跌状况了。如果我当初有 20 家不同公司股市信息,通过各种剖析,预计将来一段时间有 10 家公司应该会涨,另外 10 家应该会跌。那么咱们必定会买进预测为涨的股票,通过一段时间发现,哇挣钱了,买的这 10 家公司有 8 家都涨了,本人的身价也水涨船高。预测会跌的 10 家公司也有 9 家真的跌了。

准确率:分母示意的是样本总量,分子示意的是在不同类别中被预测正确的样本总数。实用于样本数量平衡的数据集。

联合例子一的事件,准确率值就是(8+9)/(10+10)=85%。示意对这 20 家公司股票涨跌的预测,有 85% 是精确的。

image.png

图 2 - 准确率表达式

ROC 曲线:对于样本不平衡状态的样本也能够应用。

例子二:在例子一中咱们炒股挣钱了,那么再买彩票搏一搏。当然也要先钻研一下彩票行情。通过考察发现大概 100 万注彩票会有一个中奖的。咱们预测将来卖出的 100 万注彩票会有 1 注中 500 万,并且预测到中奖号码,花两元钱买下了预测会中奖的那一注彩票。等到开奖发现,真的中了 500 万,。咱们用准确率示意((999999+1)/1000000)=1。

即便咱们不通过任何剖析,间接说所有彩票都不会中奖,也仍然有着 (999999/1000000) 的准确率。显然这个预测是有效的。

所以咱们要思考到一个样本比例的问题,在例子二中样本比例不平衡,用准确率是不能实在展现预测性能。这里就用到了 ROC 曲线、AUC 面积,这两个指标中思考到了不同样本的数量问题。

TPRate 的意义是所有实在类别为正的样本中,预测类别为正的比例。

FPRate 的意义是所有实在类别为负的样本中,预测类别为正的比例。

两个表达式都思考到了正负样本数,极大的躲避了正负样本不平衡带来的影响。把这两个向量当作坐标轴,再通过模型预测过程中真正率和假正率的变动画出 ROC 曲线,计算曲线与假正率围成的面积,就是 AUC 值,值域是 0 到 1。并且在齐全分类正确时,AUC 取值为 1。

所以 AUC 可能代替准确率应用在样本不平衡的模型。

image.png

图 3 - 真正率和假正率表达式

image.png

图 4 -ROC 曲线图

例子三:运气还是那么好,买彩票都中奖了。到市场生产一下。正好遇到一家古董店在举办一个流动。摆出来 100 件古董,每一件售价 1 万元,然而只有 10 件是真品,每一件真品价值 5 万元,其余赝品不值钱,可筛选购买。买彩票都能中奖的运气,遇到这种机会当然也不能错过,通过各种特色的剖析,最初买了 20 件古董,拿着这 20 件古董让专家鉴定后竟然有 7 件都是真品。

精准率:联合混同矩阵和表达式来了解,分母(TP+FP),在分类工作中的意义是预测为正类的样本数量,分子的意义是样本类别理论为正并被预测为正的数量,它们两个的比值咱们称为精准率,精准率是针对预测后其中一个类别的评测表达式。独自应用时实用对分类后其中一个类别状况的检测。

那么用例子三这个事件的精准率值是(7/20),示意我认为是“真”品的 20 件古董中有 7 件是真的。

image.png

图 5 - 精准率表达式

召回率:在表达式中的分母(TP+FN),联合混同矩阵能够晓得代表的是实在类别为某一个类别的样本数量,分子则是实在类别与预测类别雷同的样本数量。独自应用时侧重于查全场景,冀望将所有属于一类的样本都召回状况。

联合例子三中场景,召回率值为(7/10),理论的意义是一共有 10 件真品,有 7 件被我找进去了。

image.png

图 6 - 召回率表达式

F1 值:F1 分数是精准率和召回率的谐波平均值,而谐波平均值会给予较低的值更高的权重。因而,当召回率和精准度都很高时,分类器能力失去较高的 F1 分数。

那么对与例子三中的事件的 F1 值((20.70.35)/(0.7+0.35))=0.49/1.05。

image.png

图 7 -F1 值表达式

三、多分类策略介绍

在以上的例子中,咱们都是以二分类的问题解释各种分类指标的意义,当然咱们工作学习中要解决的问题不只有二分类,还会有多分类状况。在这里咱们补充一下多分类都有哪些策略。

例如,要创立一个零碎将数字图片分为 10 类(从 0 到 9),第一种是采纳一对多策略(OvA)。这种策略须要训练 10 个二元分类器,每种数字一个。(0- 检测器、1- 检测器、2- 检测器,等等)。而后当须要对一个图片的数字做检测时,通过获取每个分类器的决策分数,那个检测器的分数高,就分为哪一类。这就是一对多策略。

第二种采纳一对一策略(OvO)。这种策略须要训练 N *(N-1)/ 2 个分类器。对于数字图片分类问题,要训练多个二元分类器:一个用于辨别 0 和 1,一个用于辨别 0 和 2,一个用于辨别 0 和 3,以此类推。这象征要训练 45 个二元分类器。当须要对一张图片进行分类时,须要使用 45 个二元分类器,最初看哪个类别获胜的多,便分类为哪一类。OvO 的次要长处在于,每个分类器只须要用到局部训练集对其必须辨别的两个类别进行训练。

当然有一些算法在数据规模扩充后,体现会不现实(例如 SVM)。因而对于这一类的算法,OvO 是一个优先策略。因为在较小训练集上别离训练多个分类器比在大型数据集上训练多数分类器要快得多。然而对大多数二元分类器来说,OvA 策略还是更好的抉择。

四、总结

通过这三次的分享,咱们为大家介绍了准确率、ROC 曲线 /AUC 面积、精准率、召回率和 F1 值五种分类指标。每一个指标都不是各种场景通用的,要思考到咱们解决问题的场景。当一个分类指标不能精确示意模型性能的时候,也须要将两个繁多的分类指标组合应用。在多分类的场景下,这些分类指标也同样实用。

本次分类指标系列分享曾经完结,下个系列将分享卷积神经网络中的图片分类我的项目,敬请期待!

以上是自己的一些见解,了解无限,欢送大家斧正探讨!

正文完
 0