Regression

添加線性回歸預測器會降低 R 平方

  • December 4, 2017

我的數據集() 有一個因變量 (DV)、五個獨立的“基線”變量 (P1、P2、P3、P4、P5) 和一個感興趣的自變量 (Q)。

我為以下兩個模型運行了 OLS 線性回歸:

DV ~ 1 + P1 + P2 + P3 + P4 + P5
                                 -> R-squared = 0.125

DV ~ 1 + P1 + P2 + P3 + P4 + P5 + Q
                                 -> R-squared = 0.124

即,添加預測變量 Q 減少了線性模型中解釋的方差量。據我了解,這不應該發生

需要明確的是,這些是 R 平方值,而不是調整後的 R 平方值。

我已經使用Jasp和 Python 的statsmodels驗證了 R 平方值。

我有什麼理由看到這種現象嗎?也許與 OLS 方法有關?

可能是您缺少Q自動刪除的值嗎?這會對樣本產生影響,使兩個回歸無法比較。

引用自:https://stats.stackexchange.com/questions/317057

comments powered by Disqus