Machine-Learning

為什麼將 SVM 解釋為分類概率是錯誤的?

  • September 11, 2017

我對 SVM 的理解是它與邏輯回歸(LR)非常相似,即將特徵的加權和傳遞給 sigmoid 函數以獲得屬於某個類的概率,而不是交叉熵(邏輯)損失函數,訓練是使用鉸鏈損失進行的。使用鉸鏈損失的好處是可以使用各種數值技巧來提高核化效率。然而,一個缺點是生成的模型比相應的 LR 模型具有的信息更少。因此,例如,如果沒有核化(使用線性核),SVM 決策邊界仍將位於 LR 輸出概率為 0.5 的同一位置,無法判斷屬於某個類的概率從決策邊界。

我的兩個問題是:

  1. 我上面的解釋正確嗎?
  2. 使用鉸鏈損失如何使將 SVM 結果解釋為概率無效?

SVM 不會向 sigmoid 函數提供任何內容。它為數據擬合一個分離的超平面,試圖將訓練集中的所有數據點放在一側,將另一類的所有點放在另一側。因此,它會根據您的特徵向量在哪一側來分配類。更正式地說,如果我們將特徵向量表示為和超平面係數為和截距,那麼類分配是. 求解 SVM 等於找到以最大可能的餘量最小化鉸鏈損失。因此,因為 SVM 只關心你在超平面的哪一側,所以你不能將它的類分配轉換為概率。

在線性 SVM(無核)的情況下,決策邊界邊界將類似於邏輯回歸模型的邊界邊界,但可能會根據您用於擬合 SVM 的正則化強度而有所不同。因為 SVM 和 LR 解決不同的優化問題,所以不能保證您有相同的決策邊界解決方案。

有很多關於 SVM 的資源可以幫助澄清事情:是一個示例,另一個示例。

引用自:https://stats.stackexchange.com/questions/302567

comments powered by Disqus