Regression
添加線性回歸預測器會降低 R 平方
我的數據集() 有一個因變量 (DV)、五個獨立的“基線”變量 (P1、P2、P3、P4、P5) 和一個感興趣的自變量 (Q)。
我為以下兩個模型運行了 OLS 線性回歸:
DV ~ 1 + P1 + P2 + P3 + P4 + P5 -> R-squared = 0.125 DV ~ 1 + P1 + P2 + P3 + P4 + P5 + Q -> R-squared = 0.124
即,添加預測變量 Q 減少了線性模型中解釋的方差量。據我了解,這不應該發生。
需要明確的是,這些是 R 平方值,而不是調整後的 R 平方值。
我已經使用Jasp和 Python 的statsmodels驗證了 R 平方值。
我有什麼理由看到這種現象嗎?也許與 OLS 方法有關?
可能是您缺少
Q
自動刪除的值嗎?這會對樣本產生影響,使兩個回歸無法比較。