Loss-Functions
在二元分類的損失函數之間進行選擇
我在一個人們經常報告ROC-AUC或AveP(平均精度)的問題領域工作。然而,我最近發現了優化Log Loss的論文,而其他人則報告了Hinge Loss。
雖然我了解這些指標是如何計算的,但我很難理解它們之間的取捨以及究竟哪個對什麼有好處。
當談到 ROC-AUC 與 Precision-Recall 時,該線程討論了ROC-AUC 最大化如何被視為使用損失優化標準來懲罰*“將真正的負數至少與真正的正數一樣大”*(假設更高分數對應於陽性)。此外,與Precision-Recall指標相比,這個其他線程還提供了關於ROC-AUC的有用討論。
但是,對於哪種類型的問題,log loss比ROC-AUC、AveP或 Hinge loss更受歡迎?最重要的是,在選擇這些損失函數進行二元分類時,應該問什麼類型的問題?
關於這個問題的最新參考文獻是 [1]。從本質上講,它表明您指定的所有損失函數都將以快速的速率收斂到貝葉斯分類器。
在這些有限樣本之間進行選擇可以由幾個不同的參數驅動:
- 如果您想恢復事件概率(而不僅僅是分類),那麼邏輯對數損失或任何其他廣義線性模型(Probit 回歸、互補對數回歸……)是一個自然的候選者。
- 如果只針對分類,SVM 可能是首選,因為它只針對分類邊界的觀察,而忽略遠處的觀察,從而減輕假設線性模型的真實性的影響。
- 如果您沒有很多觀察結果,那麼 2 中的優勢可能是劣勢。
- 可能存在計算差異:無論是在所述優化問題中,還是在您使用的特定實現中。
- 底線-您可以簡單地嘗試所有這些並選擇表現最好的。
[1] 巴特利特、彼得 L、邁克爾 I 喬丹和喬恩 D 麥考利夫。“凸性、分類和風險界限。” 美國統計協會雜誌 101,沒有。473(2006 年 3 月):138–56。doi:10.1198/016214505000000907。