Regression

從 log y 預測 y 作為因變量

  • December 13, 2019

在 Wooldridge 所著的 Introductory Econometrics 一書中,該章涉及預測 $ \hat{y} $ (第 5 版第 6.4 章)陳述如下:

如果估計的模型是:

$$ \widehat{\log(y)} = \hat{\beta_0} + \hat{\beta_1}x_1 + …+\hat{\beta_k}x_k $$

然後

$$ \hat{y} = \exp\left(\frac{\hat{\sigma}^2}{2}\right) \exp(\widehat{\log(y)}) $$

在哪裡 $ \hat{\sigma}^2 $ 是的無偏估計量 $ \sigma^2. $

有人可以解釋為什麼會這樣以及為什麼我們不能簡單地採取 $$ \hat{y} = \exp(\widehat{\log(y)}) $$

基礎模型是

$$ E[\log Y] = \beta_0 + \beta_1 x_1 + \cdots + \beta_k x_k $$

或者,就錯誤而言 $ \varepsilon_i, $

$$ \log Y_i = \beta_0 + \beta_1 x_{1i} + \cdots + \beta_k x_{ki} + \varepsilon_i.\tag{*} $$

*當我們假設條件分佈 $ \log Y $ 是正常的,*那麼普通最小二乘法 (OLS) 估計 $ \log Y $ 也是正常的,因為估計是誤差的仿射線性組合。認為 $ \sigma^2 $ 是它的真實(但未知)方差。然後

$$ E[Y] = e^{\sigma^2/2} e^{E[\log Y]}. $$

(這是對數正態分佈的一個易於計算的屬性:例如,參見Wikipedia。)

伍德里奇插入了估計 $ \sigma^2 $ 和 $ E[\log Y] $ 進入這個公式。 因此,它可以看作是一種矩估計的方法 $ E[Y]. $

雖然直覺上是合理的,但這個估計器不一定是最好的,甚至不一定是好的。例如,它是有偏見的:請參閱https://stats.stackexchange.com/a/105734/919以獲取無偏見版本的討論和推導。它的主要缺陷是對估計的精度極度敏感 $ \hat \sigma^2: $ 要可靠地使用它,您需要大量數據或 $ \sigma^2 $ 要非常小。


鑑於此,您確實可以考慮使用估算值

$$ \widehat Y = \exp\left(\widehat {E[\log Y]}\right). $$

這估計了條件響應的幾何平均值(基本上通過幾何平均值的定義)。在某些應用中,它可能是更好的選擇。畢竟,當您使用 OLS 擬合數據的對數時,您低估了 $ Y $ 與高估相比,表明您確實不希望準確估計 $ E[Y] $ 本身。如果你這樣做了,你就會擬合非線性最小二乘模型

$$ E[Y] = \exp\left(\alpha_0+ \alpha_1 x_1 + \cdots + \alpha_k x_k\right) . $$

如果你想表達錯誤術語 $ \delta_i $ 明確地,這相當於

$$ Y_i = e^{\alpha_0}, \left(e^{x_{1i}}\right)^{\alpha_1},\cdots,\left(e^{x_{ki}}\right)^{\alpha_k} + \delta_i.\tag{**} $$

將其與指數進行比較是有啟發性的 $ (*) $ 斷言

$$ Y_i = e^{\beta_0}, \left(e^{x_{1i}}\right)^{\beta_1},\cdots,\left(e^{x_{ki}}\right)^{\beta_k} , e^{\varepsilon_i}. $$

在哪裡 $ () $ 假設乘法錯誤 $ \cdot e^{\varepsilon_i}, $ $ (**) $ 假設附加錯誤* $ +\delta_i. $ 這是兩個模型之間的基本區別。 (並且,因此, $ \alpha_j $ 不等於對應的 $ \beta_j $ 他們的估計也經常會有所不同。)

引用自:https://stats.stackexchange.com/questions/440695

comments powered by Disqus