Regression

線性回歸中的假設需要什麼?

  • August 15, 2018

在線性回歸中,我們做出以下假設

  • 響應的平均值, ,在預測變量的每組值處,, 是預測變量的線性函數。

  • 錯誤,, 是獨立的。

  • 錯誤,,在預測變量的每組值處,, 是正態分佈的。

  • 錯誤,,在預測變量的每組值處, ,有相等的方差(表示)。

我們可以解決線性回歸的方法之一是通過正規方程,我們可以寫成

從數學的角度來看,上式只需要是可逆的。那麼,為什麼我們需要這些假設呢?我問了幾個同事,他們提到這是為了獲得好的結果,而正規方程是實現這一目標的算法。但在那種情況下,這些假設有什麼幫助呢?堅持它們如何有助於獲得更好的模型?

你是對的 - 你不需要滿足這些假設來擬合點的最小二乘線。您需要這些假設來解釋結果。例如,假設輸入之間沒有關係和, 得到一個係數的概率是多少至少和我們從回歸中看到的一樣好?

引用自:https://stats.stackexchange.com/questions/362284

comments powered by Disqus