Logistic

使用行增強的 Ridge 懲罰 GLM?

  • February 10, 2015

我讀過嶺回歸可以通過簡單地將數據行添加到原始數據矩陣來實現,其中每一行都是使用 0 作為因變量和平方根構建的 $ k $ 或自變量為零。然後為每個自變量添加一個額外的行。

我想知道是否有可能為所有案例得出一個證明,包括邏輯回歸或其他 GLM。

嶺回歸最小化 .

(通常需要一個常量,但不會縮小。在這種情況下,它包含在和預測變量——但如果你不想縮小它,你就沒有對應的行用於偽觀察。或者,如果您確實想縮小它,則確實有一行。我會寫它,好像它不計入,而不是縮小,因為它是更複雜的情況。另一種情況是一個微不足道的變化。)

我們可以將第二項寫成如果我們可以寫出每個“y”和每個對應的偽觀察 -向量“x”使得

但是通過檢查,簡單地讓, 讓並讓所有其他(包括通常)。

然後

.

這適用於線性回歸。它不適用於邏輯回歸,因為普通邏輯回歸不會最小化殘差平方和。

[嶺回歸不是唯一可以通過這種偽觀察技巧完成的事情——它們出現在許多其他情況下]

引用自:https://stats.stackexchange.com/questions/137057

comments powered by Disqus