Logistic
使用行增強的 Ridge 懲罰 GLM?
我讀過嶺回歸可以通過簡單地將數據行添加到原始數據矩陣來實現,其中每一行都是使用 0 作為因變量和平方根構建的 $ k $ 或自變量為零。然後為每個自變量添加一個額外的行。
我想知道是否有可能為所有案例得出一個證明,包括邏輯回歸或其他 GLM。
嶺回歸最小化 .
(通常需要一個常量,但不會縮小。在這種情況下,它包含在和預測變量——但如果你不想縮小它,你就沒有對應的行用於偽觀察。或者,如果您確實想縮小它,則確實有一行。我會寫它,好像它不計入,而不是縮小,因為它是更複雜的情況。另一種情況是一個微不足道的變化。)
我們可以將第二項寫成如果我們可以寫出每個“y”和每個對應的偽觀察 -向量“x”使得
但是通過檢查,簡單地讓, 讓並讓所有其他(包括通常)。
然後
.
這適用於線性回歸。它不適用於邏輯回歸,因為普通邏輯回歸不會最小化殘差平方和。
[嶺回歸不是唯一可以通過這種偽觀察技巧完成的事情——它們出現在許多其他情況下]