Maximum-Likelihood
為什麼受限最大似然會產生更好(無偏)的方差估計?
我正在閱讀 Doug Bates關於 R 的 lme4 包的理論論文,以更好地理解混合模型的本質,並遇到了一個我想更好地理解的有趣結果,即使用受限最大似然 (REML) 來估計方差.
在關於 REML 標準的第 3.3 節中,他指出在方差估計中使用 REML 與在根據擬合線性模型中的殘差估計方差時使用自由度校正密切相關。特別是,“雖然通常不以這種方式導出”,但可以通過優化“REML 標準”(等式(28))估計方差來導出自由度校正。REML 標準本質上只是可能性,但線性擬合參數已通過邊緣化消除(而不是將它們設置為等於擬合估計值,這會給出有偏差的樣本方差)。
我做了數學計算並驗證了一個只有固定效應的簡單線性模型的聲明結果。我正在努力的是解釋。是否有一些觀點可以通過優化擬合參數被邊緣化的可能性來自然得出方差估計?感覺有點貝葉斯,好像我將可能性視為後驗並將擬合參數邊緣化,就好像它們是隨機變量一樣。
還是證明主要只是數學上的——它適用於線性情況,但也可以推廣?
方差的偏差源於平均值是從數據中估計出來的,因此“該數據在這個估計平均值周圍的分佈”(即方差)小於數據在“真實”平均值周圍的分佈. 另請參閱:除以的直觀解釋計算標準差時?
固定效應確定了“均值”模型,因此,如果您可以找到在未從數據中估計均值的情況下得出的方差估計(通過“邊緣化固定效應(即均值)”),那麼這低估了價差(即方差)將得到緩解。
這是 REML 估計消除偏差的“直觀”理解;您可以在不使用“估計均值”的情況下找到方差的估計值。