Machine-Learning

在構建 ML 模型時不檢查殘差的原因是什麼?

  • June 7, 2020

在線性回歸之外(如果您認為這是一種 ML 方法),我們似乎在構建 ML 模型後沒有檢查殘差。是否有一個原因?即使我們不做像正態性這樣的假設,如果存在一些可辨別的模式,殘差難道不能提供一些信息嗎?或者大多數 ML 方法在消除任何類型的模式方面做得很好。

主要理由是(錯誤地)認為投資回報率低。

缺乏時間和不適當的培訓使問題變得混亂。在較小程度上,這些點分別因懶惰和技術難度而加劇。

尤其是對於更複雜的模型,越來越難以推斷模型為何做出特定預測。是的,有多種技術可以解釋 ML 預測(例如 LIME、SHAP、部分依賴和累積局部效應圖等),但這些都是“額外步驟”。即便如此,也許在努力獲得 SHAP 力圖或 ALE 圖來解釋特定預測之後,我們仍然面臨如何影響模型預測的問題。我們提出了一些新問題,但通常沒有立即得到答案。

請注意,在工業 ML 應用程序中,“通常”我們將預測作為我們工作的主要可交付成果。只要整體 RMSE/MAE/Huber 損失是“OK”的,我們就會發布模型。關於實際模型估計和/或歸因(重要性)的問題通常被降級為“很好”。Efron 最近發表了一篇題為預測、估計和歸因的富有洞察力的討論論文,進一步強調了這些差異。我想你也會發現它在這個問題上很有啟發性。

只是要明確一點:您說“殘差提供了一些信息”是**絕對正確的。只是在許多情況下,沒有考慮提取、解釋該信息然後對其進行適當解釋的時間。人們應該始終檢查模型殘差、執行一些模型抽查等。即使是最強大的 ML 方法也遠非銀預測時的子彈。

引用自:https://stats.stackexchange.com/questions/470936

comments powered by Disqus