Lasso
Ridge 和 LASSO 給出協方差結構?
在閱讀了《統計學習要素》(Hastie、Tibshrani 和 Friedman)的第 3 章後,我想知道在給定協方差結構的情況下,是否可以實現這個問題標題中引用的著名收縮方法,即最小化(也許更一般) 數量
而不是通常的
這主要是因為在我的特定應用程序中,我們對(有時甚至是可以估計的協方差結構),我很樂意將它們包含在回歸中。我是為嶺回歸做的:至少在我在 Python/C 中實現它時,我發現係數跟踪的路徑存在重要差異,這在比較兩種情況下的交叉驗證曲線時也很明顯。 我現在正準備嘗試通過最小角度回歸來實現 LASSO,但為了做到這一點,我必須首先證明它所有的好屬性在最小化時仍然有效代替. 到目前為止,我還沒有看到任何真正做到這一切的工作,但前段時間我還讀到了類似“那些不知道統計數據的人注定要重新發現它”的引文(也許是布拉德·埃夫隆(Brad Efron)? ),這就是為什麼我首先在這裡問的原因(鑑於我是統計文獻的相對新手):這些模型是否已經在某個地方完成了?它是否以某種方式在 R 中實現?(包括通過最小化來解決和實施山脊代替,這是在 R) 的 lm.ridge 代碼中實現的內容?
提前感謝您的回答!
如果我們知道 Cholesky 分解, 說, 那麼
我們可以通過用向量替換響應來使用標準算法(使用人們喜歡的任何懲罰函數)以及帶有矩陣的預測變量.