PR曲线、ROC曲线、AUC能干个啥

简介: 评判二分类分类器性能的指标有那么多,为什么PR曲线、ROC曲线、AUC值这几个用的比较多。本文从概念、代码实现方面着手进行分享。

二分类的性能指标:PR曲线、ROC曲线、AUC的基本相关概念

PR 曲线

PR曲线实则是以precision(精准率)和recall(召回率)这两个变量而做出的曲线,其中recall为横坐标,precision为纵坐标。
一条PR曲线要对应一个阈值。通过选择合适的阈值,比如50%,对样本进行划分,概率大于50%的就认为是正例,小于50%的就是负例,从而计算相应的精准率和召回率。
如果一个学习器的P-R曲线被另一个学习器的P-R曲线完全包住,则可断言后者的性能优于前者。
我们还可以根据曲线下方的面积大小来进行比较,但更常用的是平衡点或者是F1值。平衡点(BEP)是P=R时的取值,如果这个值较大,则说明学习器的性能较好。而F1=2×P×R/(P+R),同样,F1值越大,我们可以认为该学习器的性能较好。

度量

精确率、查准率 P:预测为正例中预测正确的
召回率、查全率 R:真实结果为正例对应的判断结果(判断正例判断对的TP+判断负例判断错的FN)中判断为正例的
真正例率(TPR): TPR=TP/(TP+FN) 与召回率相同
假正例率(FPR): FPR=FP/(TN+FP) 真实结果为负例对应的判断结果中判断为正例的

混淆矩阵

confusion_matrix.png

%matplotlib notebook
import numpy as np
import matplotlib.pyplot as plt
from sklearn.metrics import precision_recall_curve,roc_auc_score,average_precision_score,auc
def draw_pr(confidence_scores,data_labels):
    plt.figure()
    plt.title('PR Curve')
    plt.xlabel('Recall')
    plt.ylabel('Precision')
    plt.grid()

#     精准率、召回率、阈值
    precision,recall,thresholds = precision_recall_curve(data_labels,confidence_scores)
    AP = average_precision_score(data_labels,confidence_scores)

    plt.plot(recall,precision,label='pr_curve(AP=%0.2f)'%AP)
    plt.legend()
    plt.show()

ROC曲线(Receiver Operating Characteristic) 受试者工作特征曲线

ROC曲线实则是以假正例率 (FPR)和 真正例率(TPR)这两个为变量而做出的曲线,其中 FPR 为横坐标, TPR 为纵坐标。

分类器可以给出每个样本数据为正例的概率,我们设定一个阈值,当概率大于阈值则预测结果为正例,否则为负例。此时,通过计算我们可以得到一个(TPR,FPR)对,即图像上的一个点。通过不断调整阈值,就得到若干个点,从而画出一条曲线。

为什么使用ROC曲线

ROC有一个很好的特性,当测试集中的正负样本分布变化时,ROC曲线能够保持不变。
实际情况中经常出现类不平衡的现象,即负样本比真样本多很多的情况(或者相反)

如何调整这个阈值呢?

一般来说,分类器会对一批数据(20个)的每个样本给出一个是正例的概率。对给出的概率进行排序,然后依次使用概率作为阈值,这样就得到了20组(FPR, TPR)。
也可以使用未经softmax(或其他处理的)的概率值

AUC(Area Under Curve)

ROC下的面积,[0,1],通常在[0.5,1]之间。
ROC曲线能直观体现分类器的性能,但是需要一个数值,直接判定分类器的性能好坏。

def draw_roc(confidence_scores,data_labels):
    plt.figure()
    plt.grid()
    plt.title('ROC Curve')
    plt.xlabel('FPR')
    plt.ylabel('TPR')
    fpr,tpr,thresholds = roc_auc_score(data_labels,confidence_scores)
    auc = auc(fpr,tpr)
    plt.plot(fpr,tpr,label='roc_curve(AUC=%0.2f)'%auc)
    plt.legend()
    plt.show()
# 正样本的置信度,即模型识别成1的概率
confidence_scores = np.array([0.9, 0.78, 0.6, 0.46, 0.4, 0.37, 0.2, 0.16])
# 真实标签
data_labels = np.array([1,1,0,1,0,0 ,1,1])
draw_roc(confidence_scores,data_labels)
draw_pr(confidence_scores,data_labels)
# 整合了两个函数的画图部分,可以用draw_plt函数处理
def draw_plt(title,xlabel,ylabel,x,y,label_name):
    plt.figure()
    plt.grid()
    plt.title(title)
    plt.xlabel(xlabel)
    plt.ylabel(ylabel)
    plt.plot(x,y,label=label_name)
    plt.legend()
    plt.show()

TODO

  • [ ] 后期加上数据和图片
  • [ ] 结合具体二分类案例进一步分析
相关文章
|
机器学习/深度学习 数据可视化 算法
机器学习-可解释性机器学习:随机森林与fastshap的可视化模型解析
机器学习-可解释性机器学习:随机森林与fastshap的可视化模型解析
1831 1
|
机器学习/深度学习 人工智能 并行计算
Titans:谷歌新型神经记忆架构,突破 Transformer 长序列处理的瓶颈
Titans 是谷歌推出的新型神经网络架构,通过神经长期记忆模块突破 Transformer 在处理长序列数据时的瓶颈,支持并行计算,显著提升训练效率。
621 5
Titans:谷歌新型神经记忆架构,突破 Transformer 长序列处理的瓶颈
|
机器学习/深度学习 人工智能 监控
深度学习之模型攻击(Model Attack)详解
模型攻击通常指在机器学习和人工智能领域中,故意设计的行为或方法,旨在操纵或欺骗机器学习模型的输出。这类攻击可能导致模型做出错误的决策或泄露敏感信息,对于安全性至关重要的应用(如金融服务、医疗和自动驾驶)尤其具有破坏性。
802 3
|
机器学习/深度学习 编解码 算法
论文阅读笔记 | 目标检测算法——DCN(可变形卷积网络)
论文阅读笔记 | 目标检测算法——DCN(可变形卷积网络)
1558 0
论文阅读笔记 | 目标检测算法——DCN(可变形卷积网络)
|
机器学习/深度学习 人工智能 算法
算法金 | 一文彻底理解机器学习 ROC-AUC 指标
```markdown # ROC曲线与AUC详解:评估分类模型利器 本文深入浅出解释ROC曲线和AUC,通过实例和代码帮助理解其在模型评估中的重要性,旨在提升对分类模型性能的理解和应用。 ```
2573 13
算法金 | 一文彻底理解机器学习 ROC-AUC 指标
|
机器学习/深度学习 JSON 自然语言处理
[GPT-1]论文实现:Improving Language Understanding by Generative Pre-Training
[GPT-1]论文实现:Improving Language Understanding by Generative Pre-Training
654 1
|
存储 数据可视化 数据挖掘
实战案例:Pandas在金融数据分析中的应用
【4月更文挑战第16天】本文通过实例展示了Pandas在金融数据分析中的应用。案例中,一家投资机构使用Pandas加载、清洗股票历史价格数据,删除无关列并重命名,将日期设为索引。接着,数据被可视化以观察价格走势,进行基本统计分析了解价格分布,以及计算移动平均线来平滑波动。Pandas的便捷功能在金融数据分析中体现出高效率和实用性。
1383 0
|
数据采集 机器学习/深度学习 数据挖掘
Pandas中的变形大师:transform方法
Pandas中的变形大师:transform方法
397 0
|
机器学习/深度学习 Serverless Python
`sklearn.metrics`是scikit-learn库中用于评估机器学习模型性能的模块。它提供了多种评估指标,如准确率、精确率、召回率、F1分数、混淆矩阵等。这些指标可以帮助我们了解模型的性能,以便进行模型选择和调优。
`sklearn.metrics`是scikit-learn库中用于评估机器学习模型性能的模块。它提供了多种评估指标,如准确率、精确率、召回率、F1分数、混淆矩阵等。这些指标可以帮助我们了解模型的性能,以便进行模型选择和调优。