Classification

AUC 代表什麼,它是什麼?

  • January 9, 2015

搜索了高和低,但無法找出與預測相關的 AUC 代表或意味著什麼。

縮寫

AUC 大部分時間用於表示 AUROC,這是一種不好的做法,因為正如 Marc Claesen 指出的那樣,AUC 是模棱兩可的(可能是任何曲線),而 AUROC 不是。


解讀 AUROC

AUROC 有幾種等效的解釋

  • 均勻抽取的隨機正數排在均勻抽取的隨機負數之前的期望。
  • 在均勻繪製的隨機負數之前排名的正數的預期比例。
  • 如果排名在均勻繪製的隨機負數之前被拆分,則預期的真陽性率。
  • 預期的負數比例排在均勻繪製的隨機正數之後。
  • 如果排名在均勻繪製的隨機正數之後被拆分,則預期的誤報率。

更進一步:如何推導出 AUROC 的概率解釋?


計算 AUROC

假設我們有一個概率二元分類器,例如邏輯回歸。

在呈現 ROC 曲線(= 接收者操作特徵曲線)之前,必須了解**混淆矩陣的概念。**當我們進行二元預測時,可能有 4 種結果:

  • 我們預測 0 而真正的類實際上是 0:這稱為True Negative,即我們正確地預測該類是負的 (0)。例如,防病毒軟件不會將無害文件檢測為病毒。
  • 我們預測 0 而真正的類實際上是 1:這稱為False Negative,即我們錯誤地預測該類是負的 (0)。例如,防病毒軟件無法檢測到病毒。
  • 我們預測 1 而真正的類實際上是 0:這稱為False Positive,即我們錯誤地預測類是正的 (1)。例如,防病毒軟件將無害文件視為病毒。
  • 我們預測 1 而真正的類實際上是 1:這稱為True Positive,即我們正確地預測類是正的 (1)。例如,防病毒軟件正確地檢測到了病毒。

為了得到混淆矩陣,我們檢查了模型所做的所有預測,併計算這四種結果中的每一種發生了多少次:

在此處輸入圖像描述

在這個混淆矩陣的例子中,在被分類的 50 個數據點中,45 個被正確分類,5 個被錯誤分類。

由於要比較兩個不同的模型,使用單個度量而不是多個度量通常更方便,因此我們從混淆矩陣計算兩個度量,稍後我們將它們合併為一個:

  • 真陽性率TPR),又名。靈敏度、命中率召回率,定義為 $ \frac{TP}{TP+FN} $ . 直觀地說,這個指標對應於被正確認為是正的正數據點相對於所有正數據點的比例。換句話說,TPR 越高,我們將錯過的正數據點越少。
  • 誤報率FPR),又名。fall-out,定義為 $ \frac{FP}{FP+TN} $ . 直觀地說,這個指標對應於被錯誤地認為是正的負數據點相對於所有負數據點的比例。換句話說,FPR 越高,錯誤分類的負面數據點就越多。

要將 FPR 和 TPR 組合成一個指標,我們首先計算具有許多不同閾值的前兩個指標(例如 $ 0.00; 0.01, 0.02, \dots, 1.00 $ ) 對於邏輯回歸,然後將它們繪製在一個圖表上,橫坐標為 FPR 值,縱坐標為 TPR 值。得到的曲線稱為 ROC 曲線,我們考慮的度量是這條曲線的 AUC,我們稱之為 AUROC。

下圖以圖形方式顯示了 AUROC:

在此處輸入圖像描述

在該圖中,藍色區域對應於接收器操作特徵 (AUROC) 曲線下的區域。對角線上的虛線表示隨機預測變量的 ROC 曲線:它的 AUROC 為 0.5。隨機預測器通常用作基線,以查看模型是否有用。

如果您想獲得一些第一手經驗:

引用自:https://stats.stackexchange.com/questions/132777

comments powered by Disqus