Bayesian

我什麼時候應該擔心貝葉斯模型選擇中的 Jeffreys-Lindley 悖論?

  • April 21, 2015

我正在考慮使用RJMCMC探索的具有不同複雜性的大型(但有限)模型空間。每個模型的參數向量的先驗信息相當豐富。

  1. 在什麼情況下(如果有的話)我應該擔心Jeffreys-Lindley 悖論偏愛更簡單的模型,而其中一個更複雜的模型會更合適?
  2. 是否有任何簡單的例子突出了貝葉斯模型選擇中的悖論問題?

我看了幾篇文章,分別是西安的博客安德魯·格爾曼的博客,但我還是不太明白這個問題。

抱歉在我的博客上不清楚!

**注意:**我在 Cross 驗證的另一個答案中提供了有關貝葉斯模型選擇和 Jeffreys-Lindley 悖論的一些背景知識。

Jeffreys-Lindley 悖論與貝葉斯模型選擇有關,因為邊際似然

當是一個- 有限度量(即具有無限質量的度量)而不是概率度量。造成這種困難的原因是無限的質量使和對於任何正常數都無法區分. 特別是,當一個模型被賦予“平坦”先驗時,貝葉斯因子不能也不應該使用。 最初的 Jeffreys-Lindley 悖論以正態分佈為例。比較模型時

和貝葉斯因子是

當是適當的先驗,但如果您採用普通的先驗在然後讓去無窮大,分母變為零的任何值不同於零和任何值. (除非和是相關的,但這變得更加複雜!)如果你直接使用在哪裡是一個必然的任意常數,貝葉斯因子將會

因此直接依賴於. 現在,如果您的先驗信息豐富(因此是正確的),那麼就沒有理由發生 Jeffreys-Lindley 悖論。通過足夠數量的觀察,貝葉斯因子將始終選擇生成數據的模型。(或者更準確地說,模型集合中考慮的模型選擇最接近生成數據的“真實”模型的模型。)

引用自:https://stats.stackexchange.com/questions/147514

comments powered by Disqus