博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
Binary classification - 聊聊评价指标的那些事儿【实战篇】
阅读量:5334 次
发布时间:2019-06-15

本文共 3398 字,大约阅读时间需要 11 分钟。

分类问题就像披着羊皮的狼,看起来天真无害用起来天雷滚滚。比如在建模前你思考过下面的问题么?

  • 你的分类模型输出的概率只是用来做样本间的相对排序,还是概率本身?
  • 你的训练数据本身分布如何是否存在Imbalanced Sample?

要是您都想到了拜拜?。要是有1各您感兴趣的问题,那就接着往下看吧。本来是想先回顾一下各个分类问题中可能用到的metric,但是又觉得读的人可能觉得无聊,就分成了两章。要是有的指标断片了就来这里回忆一下:

问题1 Rank or Probability?

分类问题可以根据对输出形式的要求分成两类

  1. 一种我们只关心排序。比如电商场景下,用户是否会回购某商品,我们更关心用户回购商品A的概率是否高于用户回购商品B的概率,然后把回购概率更高的商品放在推荐列表前面。这时分类问题其实是用来排序的。--样本间的相对排序比较比绝对概率更重要
  2. 另一种我们关心概率。比如现在大家都在谈增长,我们想知道一个用户明天在app活跃的概率,只知道用户A比用户B活跃的概率高并不够,我们需要明确知道用户A活跃的概率,究竟是90%还是50%,这样才能对高/低于特定概率的用户进行一定(促活/唤醒)操作。这时分类问题是对真实概率的估计 --样本的绝对概率需要接近真实概率,并且天极稳定

有人会问,上述两种需求究竟对解决一个二分类问题有什么影响? 答案是损失函数/评价指标

让我们来看一个直观的例子,下图我们尝试用LightGBM解决一个二分类问题,我们选择的拟合指标是最大化AUC。

X轴是预测概率,Y轴是真实概率,蓝线是LGB的预测结果,绿线对应真实概率=预测概率。为什么模型的AUC高达98.93%(这里还有ImbalancedSample的影响,让我们先忽略这一点),但是预测概率和真实概率却差到了姥姥家。

让我们对预测概率再做一层处理,黄线可以简单理解为我们对LGB的预测结果做了一层映射 \(\hat{p} \to f(\hat{p})\),这时校准后的预测概率和真实概率基本一致了。但是有趣的是校准后的预测概率AUC = 98.94%和原始预测基本没差别?!

image_1ddrqv2luqki75uqnmgcs1tjk13.png

Duang Duang Duang!敲黑板!AUC是对相对概率排序的检验!其实只要用心(我学AUC的时候一定没用心>_<)看一下AUC的计算方式就会发现,AUC只关心给定各个阈值,把样本按照预测概率分成0/1,并计算正负样本预测的准确率。

举个最夏天的例子,两个瓜一个甜一个不甜,我们训练一个西瓜模型来预测它们甜(1)/不甜(0)。

模型1: 甜的瓜预测概率是0.8,不甜的瓜预测概率是0.1,
模型2: 甜的瓜预测概率是0.51,不甜的瓜预测概率是0.49
两个模型的AUC是相同的,因为它们都完美对两个瓜进行了分类。

所以当使用最大化AUC作为损失函数时,当正负样本的预测准确率不再提高,模型就会停止学习。这时模型的预测概率并不是对真实概率的拟合。那如何才能得到对真实概率的预测? 答案是logloss/cros-entropy

\[ \begin{align} L &= \sum_{i=1}^N y_i * log(p_i) + (1-y_i) *log(1-p_i)\\ \end{align} \]

我们可以从两个角度来理解为什么logloss是对真实概率的估计

  1. 从极大似然估计的角度

    logloss可以由极大似然函数取对数得到,最小化logloss对应的最大化似然函数。\(p_i\)是对\(p(y_i=1)\)的估计
    \[ argmax_p \prod_{i=1}^N {p_i}^{y_i} * {(1-p_i)}^{1-y_i} \]

  2. 从信息论的角度

    不熟悉信息论的同学看这里
    logloss也叫cross-entropy(交叉熵),用来衡量两个分布的相似程度。
    交叉熵本身可以分解为P本身的信息熵+分布P和分布q之间的距离。这里P是样本的真实分布信息,信息熵一定。所以最小化交叉熵就变成了最小化分布p和q之间的距离,也就是样本分布和模型估计间的距离,如下
    \[ \begin{align} crossentropy &= H(p,q)\\ &= -\sum_{c=1}^C p(c) * log(q(c))\\ & = - \sum_{c=1}^C p(c) * log(p(c)) + \sum_{c=1}^C p(c)[log(p(c) - log(q(c)))] \\ &= H(p) + KL(p||q)\\ \end{align} \]
    乍一看会觉得交叉熵和logloss长的不像一家人。因为在训练模型时分布p是从训练样本的分布中抽象得到的。二分类问题中C=2, 让我们把上述交叉熵再推一步
    \[ \begin{align} H(p,q) &= p *log(q) + (1-p) *log(1-q) \\ p& = \sum_{i=1}^N I(y_i=1)/N \\ H(p,q) &= \frac{1}{N} \sum_i I(y_i=1) *log(q)+ I(y_i=0) *log(1-q) \\ \end{align} \]
    所以下次解决分类问题,如果你的目标是计算对真实概率的估计的话,别选错指标哟�

兴趣卡片- 预测概率校准

其实黄线用了Isotonic Regression来校准预测概率。是一种事后将预测概率根据真实概率进行校准的方法。感兴趣的可以看一下Reference里面的材料1,2。原理并不复杂,但在分析特定算法,尤其是boosting,bagging类的集合算法为什么使用loggloss对概率估计依旧会有偏的部分蛮有趣的

问题2 Imbalanced Sample ?

正负样本分布不均大概是分类问题中最常遇到的问题。正确解决Imbalane问题需要注意的并不只是评价指标,往往还要注意采样和训练集测试集的划分。但这里我们只讨论在解决样本分布不均的问题时,我们应该选择什么指标来评价模型表现。让我们挨个来剔除不好用的指标。

举个极端的例子,100个样本里只有1个正样本

Accuracy

这种情况下即便我们全部预测为负,我们的准确率依旧高达99%。所以Accuracy只适用于正负样本均匀分布的情况,因为它把正负样本的预测准确率柔和在一起看了。

AUC

AUC是fpr和tpr(recall)组成的ROC的曲线下面积。还记得我们在【回忆篇】里面说过fpr,tpr是分别衡量在正负样本上的准确率的。

而fpr和tpr之间的trade-off,在正样本占比很小的情况下,这种trad-off会被样本量更大的一方主导。所以当正样本占比很小的时候,AUC往往会看起来过于优秀。

但就像硬币的正反面一样,从另一个角度看这也是AUC的优点,就是AUC本身不会很大的受到样本实际分布的影响,相同的模型相同的样本,你把正样本downsample /upsample 1倍,AUC不会有很大的改变。

下图来自An introduction to ROC analysis, 上面的AUC和PR是正负样本1:1的预测表现,下面是1:10的表现。我们会发现AUC基本没有变化,但是precision-recall发生了剧烈变化。

%E5%B1%8F%E5%B9%95%E5%BF%AB%E7%85%A7%202019-07-02%20%E4%B8%8B%E5%8D%8810.31.52.png

AP/AUCPR

AP是recall和precision组成的PR的曲线下面积。这里recall和precision分别从真实分布和预测分布两个角度衡量了对正样本的预测准确率。说到这里已经有人反应过来了。是的这一对trade-off指标都是针对正样本的,在计算中没有用到True negative.所以当你的数据集存在Imbalance的时候,AP一般会是更好的选择。

...你还遇到过啥问题嘞?欢迎留言


Reference

  1. Pedro G. Fonseca and Hugo D. Lopes. Calibration of Machine Learning Classifiers for Probability of Default Modelling
  2. Tom Fawcett,An introduction to ROC analysis

转载于:https://www.cnblogs.com/gogoSandy/p/11123688.html

你可能感兴趣的文章
HDU 6184 Counting Stars
查看>>
AtCoder Beginner Contest 133 F Colorful Tree
查看>>
算法笔记--BSGS && exBSGS 模板
查看>>
P5043 【模板】树同构([BJOI2015]树的同构)
查看>>
Codeforces 348 D - Turtles
查看>>
bzoj 2321 星器
查看>>
HDU 6568 Math
查看>>
BZOJ 4488: [Jsoi2015]最大公约数
查看>>
算法笔记--笛卡尔树模板
查看>>
2018年长沙理工大学第十三届程序设计竞赛 I 连续区间的最大公约数
查看>>
AcWing 246. 区间最大公约数
查看>>
算法笔记--线性基求交模板
查看>>
BZOJ 2154: Crash的数字表格
查看>>
The 2019 Asia Nanchang First Round Online Programming Contest The Nth Item
查看>>
BZOJ1413 [ZJOI2009]取石子游戏
查看>>
「模拟8.21」虎
查看>>
「模拟8.23」阴阳 DP
查看>>
「模拟8.21」山洞(矩阵优化DP)
查看>>
「模拟8.29」chinese(性质)·physics·chemistry(概率期望)
查看>>
「csp-s模拟测试(9.18)」Set·Read·Race
查看>>