Least-Squares

OLS 作為非線性函數的近似值

  • February 6, 2020

假設一個非線性回歸模型 $$ \begin{align} \mathbb E[y \lvert x] &= m(x,\theta) \ y &= m(x,\theta) + \varepsilon, \end{align} $$ 和 $ \varepsilon := y - m(x,\theta) $ .

我聽到有人這麼說

OLS 始終一致地估計在回歸量的期望值處評估的非線性條件期望函數的偏導數(偏導數)。

有人可以證明這個屬性嗎?

警告:這篇文章中聲稱的結果具有爭議的有效性(作者本人。當迷霧散去時,我會報告)

行。在這裡包含整個證明有點長,所以我只畫草圖:

圍繞一些最初的任意點應用一階泰勒展開, $ x_0 $ ,

$$ y = m(x_0) + [x-x_0]'\nabla m(x_0,\theta) + R_1 + \epsilon. $$

在哪裡 $ R_1 $ 是泰勒餘數。放 $$ b_0 = m(x_0),; b = \nabla m(x_0,\theta),;\beta = (b_o, b)' $$

$$ \tilde x = x-x_0,; u = R_1 + \epsilon $$ 並恢復為矩陣表示法

$$ \mathbf y = \tilde X \beta + \mathbf u. $$

所以 OLS 將嘗試估計的是條件期望函數的梯度,在某個點進行評估 $ x_0 $ ,並且常數項將嘗試估計在該點評估的 CEF $ x_0 $ .

OLS 將是

$$ \hat \beta = \beta + (\tilde X'\tilde X)^{-1}\tilde X’u \implies \hat \beta - \beta = (\tilde X'\tilde X)^{-1}\tilde X'(\epsilon + R_1) $$

自從 $ \epsilon $ 是通過構造條件期望函數誤差,在我們將剩下的極限

$$ \text{plim}(\hat \beta - \beta) =E(\tilde x\tilde x')\cdot E(\tilde x\cdot R_1) $$

現在, $ R_1 $ 將取決於選擇 $ x_0 $ . 自從 $ R_1 $ 表示線性逼近的不准確,一個自然的想法是“什麼擴展中心最小化期望平方泰勒餘數 $ E(R_1^2) $ ?”所以線性近似在模擬“均方誤差”的標準下被認為是“最佳”的,這是關於一般偏差的眾所周知且廣泛使用的最優性標準?

如果遵循這條路徑,就會發現該設置 $ x_0 = E(x) $ 最小化 $ E(R_1^2) $ 如果CEF 的梯度是由 OLS 估計的。此外,人們發現在這種情況下, $ E(\tilde x\cdot R_1) = 0 $ . 量子點

在實踐中實現這一點意味著將回歸變量集中在它們的樣本均值上,而使因變量不居中。

引用自:https://stats.stackexchange.com/questions/448273

comments powered by Disqus