Redian新闻
>
机器学习分类问题:9个常用的评估指标总结

机器学习分类问题:9个常用的评估指标总结

科技

你好,我是zhenguo

对机器学习的评估度量是机器学习核心部分,本文总结分类问题常用的metrics

分类问题评估指标

在这里,将讨论可用于评估分类问题预测的各种性能指标

1 Confusion Matrix

这是衡量分类问题性能的最简单方法,其中输出可以是两种或更多类型的类。混淆矩阵只不过是一个具有两个维度的表,即“实际”和“预测”,此外,这两个维度都有“真阳性(TP)”、“真阴性(TN)”、“假阳性(FP)”和“假阴性(FN)”,如下所示:


与混淆矩阵相关的术语解释如下:

-真阳(TP)− 当数据点的实际类别和预测类别均为1

-真实阴(TN)− 当数据点的实际类和预测类都为0

-假阳(FP)− 当数据点的实际类别为0,预测的数据点类别为1

-假阴(FN)− 当数据点的实际类别为1,预测的数据点类别为0

我们可以使用sklearn的混淆矩阵函数confusion_matrix,用于计算分类模型混淆矩阵的度量。

2 Accuracy

它是分类算法最常见的性能度量。它可以被定义为正确预测的数量与所有预测的比率。我们可以通过混淆矩阵,借助以下公式轻松计算:

我们可以使用sklearn的accuracy_score函数,计算分类模型准确性的指标

3 Precision

precision定义为ML模型预测结果中:预测正确的正样本数除以所有的预测正样本数:

4 Recall

recall定义为ML模型预测结果中:预测正确的正样本数除以所有的实际正样本数:

5 Specificity

specificity定义为ML模型预测结果中:预测正确的负样本数除以所有的实际负样本数:

6 Support

支持度可定义为每类目标值中相应的样本数

7 F1 Score

该分数将为我们提供precisionrecall的调和平均值。从数学上讲,F1分数是precisionrecall的加权平均值。F1的最佳值为1,最差值为0。我们可以使用以下公式计算F1分数:

F1分数对precisionrecall的相对贡献相等。

我们可以使用sklearn的classification_report功能,用于获取分类模型的分类报告的度量。

8 AUC (Area Under ROC curve)

AUC(曲线下面积)-ROC(接收器工作特性)是基于不同阈值的分类问题性能指标。顾名思义,ROC是一条概率曲线,AUC衡量可分离性。简单地说,AUC-ROC度量将告诉我们模型区分类的能力,AUC越高,模型越好。

从数学上讲,可以通过绘制不同阈值下的TPR(真阳性率),即specificityrecall与FPR(假阳性率),下图显示了ROC、AUC,y轴为TPR,x轴为FPR:


我们可以使用sklearn的roc_auc_score函数,计算AUC-ROC的指标。

9 LOGLOSS (Logarithmic Loss)

它也称为逻辑回归损失或交叉熵损失。它基本上定义在概率估计上,并测量分类模型的性能,其中输入是介于0和1之间的概率值。

通过精确区分,可以更清楚地理解它。正如我们所知,准确度是我们模型中预测的计数(预测值=实际值),而对数损失是我们预测的不确定性量,基于它与实际标签的差异。借助对数损失值,我们可以更准确地了解模型的性能。我们可以使用sklearn的log_loss函数。

10 例子

下面是Python中的一个简单方法,它将让我们了解如何在二进制分类模型上使用上述性能指标。

from sklearn.metrics import confusion_matrix
from sklearn.metrics import accuracy_score
from sklearn.metrics import classification_report
from sklearn.metrics import roc_auc_score
from sklearn.metrics import log_loss

X_actual = [1, 1, 0, 1, 0, 0, 1, 0, 0, 0]
Y_predic = [1, 0, 1, 1, 1, 0, 1, 1, 0, 0]
results = confusion_matrix(X_actual, Y_predic)
print ('Confusion Matrix :')
print(results)
print ('Accuracy Score is',accuracy_score(X_actual, Y_predic))
print ('Classification Report : ')
print (classification_report(X_actual, Y_predic))
print('AUC-ROC:',roc_auc_score(X_actual, Y_predic))
print('LOGLOSS Value is',log_loss(X_actual, Y_predic))

输出:

Confusion Matrix :
[
   [3 3]
   [1 3]
]
Accuracy Score is 0.6
Classification Report :
            precision      recall      f1-score       support
      0       0.75          0.50      0.60           6
      1       0.50          0.75      0.60           4
micro avg     0.60          0.60      0.60           10
macro avg     0.62          0.62      0.60           10
weighted avg  0.65          0.60      0.60           10
AUC-ROC:  0.625
LOGLOSS Value is 13.815750437193334

文献参考:

  1. https://blog.csdn.net/ttdxtt/article/details/115522334
  2. https://www.tutorialspoint.com/machine_learning_with_python/machine_learning_algorithms_performance_metrics.htm
  3. https://towardsdatascience.com/understanding-auc-roc-curve-68b2303cc9c5

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
Robeco:使用机器学习发现被错误定价的股票​一文梳理ICML 2022中图机器学习热点和趋势深度解读 | 机器学习和深度学习的区别到底是什么?市财产评估办公室公布费城所有财产重新评估结果,如有问题请尽快反应Npj Comput. Mater.: 单线态裂变设计规则探索,机器学习来助力一步一步理解机器学习的ROC曲线发展空间巨大 | 机器学习工程师求职1V1定制计划随时启动!对话 | AI、机器学习在材料科学研究中能发挥哪些作用?远瞩咨询:2022年全球人工智能机器学习细分市场分析五颜六色的口音机器学习与资产定价南洋理工计算机视觉科研项目招生(仅限机器学习,深度学习,AI,迁移学习方向)香港中文大学(深圳)数据科学学院招聘博士后 - 分布式优化和机器学习方向10月下预告!机器学习、量化金融背景提升项目实战开课!机器学习常用的特征转换方法总结温哥华的后花园-WhistlerICML 2022 | 关注AI技术的你,快来查收这份机器学习前沿论文精选!看电视连续剧《欢迎光临》今日开课|《数据科学·机器学习求职实战营》即将开课,赶快报名!机器学习的3大“疑难杂症”,因果学习是突破口 | 重庆大学刘礼【注意】上传简历之前,这9个常见错误请一定自查!ML如何做科学发现?牛津大学268页博士论文详述科学机器学习内涵黑社会植根于资本主义每个角落博士申请 | 美国印第安纳大学姜雷教授招收量子机器学习方向全奖博士生NeurIPS 2022 | 首个将视觉、语言和音频分类任务进行统一的半监督分类学习基准自然语言处理 · 机器学习 · 深度学习美国新泽西理工 招收2023春季/秋季入学博士生(全奖) 应用机器学习/移动系统安全和隐私针对量子多体问题且可证明的高效机器学习,登上Science聊一聊机器学习的MLE和MAP:最大似然估计和最大后验估计面浇头系列之五 炒双菇(视频)A股市场机器学习多因子模型实证从机器学习到推荐系统,技术平台全面统一:火山引擎已经发动终于有人把分布式机器学习讲明白了112页数学知识整理!机器学习-数学基础回顾.pptx来!新闻流与股价跳跃、图数据应用综述、机器学习与有效前沿
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。