Regression
線性回歸中的假設需要什麼?
在線性回歸中,我們做出以下假設
響應的平均值, ,在預測變量的每組值處,, 是預測變量的線性函數。
錯誤,, 是獨立的。
錯誤,,在預測變量的每組值處,, 是正態分佈的。
錯誤,,在預測變量的每組值處, ,有相等的方差(表示)。
我們可以解決線性回歸的方法之一是通過正規方程,我們可以寫成
從數學的角度來看,上式只需要是可逆的。那麼,為什麼我們需要這些假設呢?我問了幾個同事,他們提到這是為了獲得好的結果,而正規方程是實現這一目標的算法。但在那種情況下,這些假設有什麼幫助呢?堅持它們如何有助於獲得更好的模型?
你是對的 - 你不需要滿足這些假設來擬合點的最小二乘線。您需要這些假設來解釋結果。例如,假設輸入之間沒有關係和, 得到一個係數的概率是多少至少和我們從回歸中看到的一樣好?