Regression
廣義最小二乘:從回歸係數到相關係數?
對於具有一個預測變量的最小二乘:
如果和在擬合之前進行標準化(即), 然後:
- 與皮爾遜相關係數相同,.
- 在反射回歸中是相同的:
對於廣義最小二乘法 (GLS),是否同樣適用?即如果我標準化我的數據,我可以直接從回歸係數中獲得相關係數嗎?
通過對數據進行實驗,反映的 GLS 導致不同的係數,而且我不確定我是否相信回歸係數符合我的相關性預期值。我知道人們引用 GLS 相關係數,所以我想知道它們是如何得出的,因此它們的真正含義是什麼?
答案是肯定的,線性回歸係數是預測變量與響應的相關性,但前提是您使用正確的坐標系。
要明白我的意思,請回想一下,如果和居中和標準化,然後每個之間的相關性和只是點積. 此外,線性回歸的最小二乘解是
如果發生這種情況(單位矩陣)然後
我們恢復相關向量。根據預測變量重新構建回歸問題通常很有吸引力滿足通過找到使這種關係成立的原始預測變量的適當線性組合(或等效地,坐標的線性變化);這些新的預測變量稱為主成分。
所以總的來說,你的問題的答案是肯定的,但只有當預測變量本身不相關時。否則,表達式
表明 beta 必須與預測變量本身之間的相關性混合在一起,以恢復預測變量-響應相關性。
作為旁注,這也解釋了為什麼結果對於一個變量線性回歸總是正確的。一旦預測向量是標準化的,那麼:
在哪裡是所有的截距向量。所以(兩列)數據矩陣自動滿足,結果如下。