貝葉斯嶺回歸是貝葉斯線性回歸的另一個名稱嗎?
我在互聯網上搜索了貝葉斯嶺回歸,但我得到的大部分結果都是關於貝葉斯線性回歸的。我想知道這兩者是否相同,因為公式看起來很相似
嶺回歸使用正則化 L2 範數,而貝葉斯回歸,是一種以概率術語定義的回歸模型,具有參數的明確先驗。先驗的選擇可以產生正則化效果,例如使用拉普拉斯先驗作為係數等價於 L1 正則化。它們並不相同,因為嶺回歸是一種回歸模型,而貝葉斯方法是定義和估計可應用於不同模型的統計模型的通用方法。
嶺回歸模型定義為
arg,minβ;|y−Xβ|22+λ|β|22
在貝葉斯設置中,我們使用貝葉斯定理估計後驗分佈
p(θ|X)∝p(X|θ),p(θ)
嶺回歸意味著對參數假設正態似然和正態先驗。去掉歸一化常數後,正態分佈的對數密度函數為
logp(x|μ,σ)=log[1σ√2πe−12(x−μσ)2] =log[1σ√2π]+log[e−12(x−μσ)2] ∝−12(x−μσ)2 ∝−1σ2|x−μ|22
現在您可以看到,使用正態先驗最大化正態對數似然等效於使用嶺懲罰最小化平方損失
\begin{align}
\underset{\beta}{\operatorname{arg,max}}& ; \log\mathcal{N}(y|X\beta, \sigma) + \log\mathcal{N}(0, \tau) \
= \underset{\beta}{\operatorname{arg,min}}&; -\Big{\log\mathcal{N}(y|X\beta, \sigma) + \log\mathcal{N}(0, \tau)\Big} \
= \underset{\beta}{\operatorname{arg,min}}&; \frac{1}{\sigma^2}|y - X\beta|^2_2 + \frac{1}{\tau^2} |\beta|^2_2
\end{align}有關嶺回歸和正則化的更多信息,請參閱線程:為什麼通過在對角線上添加一個常數,嶺估計變得比 OLS 更好?,以及收縮方法解決了什麼問題?,我什麼時候應該使用套索和山脊?,以及為什麼嶺回歸被稱為“嶺”,為什麼需要它,什麼時候發生走向無窮大?,以及我們擁有的許多其他人。