Machine-Learning

先驗分佈和先驗預測分佈的區別?

  • February 27, 2019

在研究貝葉斯統計時,不知何故,我在理解先驗分佈和先驗預測分佈之間的差異方面遇到了問題。先驗分佈很好理解,但我發現理解先驗預測分佈的使用以及為什麼它與先驗分佈不同的原因很模糊。

這裡的預測意味著對觀察的預測。先驗分佈是參數的分佈,而先驗預測分佈是觀測值的分佈。

如果 X 表示觀察結果,我們使用模型(或可能性) p(xθ) 為了 θΘ 那麼先驗分佈是 θ , 例如 pβ(θ) 在哪裡 β 是一組超參數。請注意,沒有條件 β ,因此超參數被認為是固定的,這在分層模型中不是這種情況,但這不是重點。

先驗預測分佈是 X “平均”所有可能的值 θ

pβ(x)=Θp(x,θ)dθ =Θp(xθ)pβ(θ)dθ

這種分佈是先驗的,因為它不依賴於任何觀察。

我們也可以用同樣的方式定義後驗預測分佈,也就是說,如果我們有一個樣本 X=(X1,,Xn) ,後驗預測​​分佈為:

pβ(xX)=Θp(x,θX)dθ =Θp(xθ,X)pβ(θX)dθ =Θp(xθ)pβ(θX)dθ.

最後一行是基於即將到來的觀察獨立於 X 給定 θ .

因此,後驗預測​​分佈的構建方式與先驗預測分佈相同,但在後者中,我們使用 pβ(θ) 在前者中,我們加權 pβ(θX) 那是我們的“更新”知識 θ .

示例:Beta-二項式

假設我們的模型是 XθBin(n,θ) IE P(X=xθ)=θx(1θ)nx .

這裡 Θ=[0,1] .

我們還假設 Beta 先驗分佈 θ , β(a,b) , 在哪裡 (a,b) 是一組超參數。

先驗預測分佈 pa,b(x) , 是帶參數的beta 二項分佈 (n,a,b) .

這種離散分佈給出了得到的概率 k 成功出自 n 給定超參數的試驗 (a,b) 關於成功的概率。

現在假設我們觀察 n1(x1,,xn1)m 成功。

由於二項分佈和 beta 分佈是共軛分佈,我們有: p(θX=m)θm(1θ)n1m×θa1(1θ)b1 θa+m1(1θ)n1+bm1 β(a+m,n1+bm)

因此 θX 遵循帶參數的 beta 分佈 (a+m,n1+bm) .

然後, pa,b(xX=m) 也是一個 beta 二項分佈,但這次有參數 (n2,a+m,b+n1m) 而不是 (n2,a,b) .

根據一個 β(a,b) 事先分配和 Bin(n,θ) 可能性,如果我們觀察 m 成功出自 n1 試驗,後驗預測​​分佈是帶有參數的 beta 二項式 (n2,a+x,b+n1x) . 注意 n2n1 在這裡扮演不同的角色,因為後驗預測分佈大約是:

鑑於我目前的知識 θ 觀察後 m 成功出自 n1 試驗,即 β(n1,a+x,n+bx) ,我觀察到的概率是多少 k 成功出自 n2 額外的試驗?

我希望這是有用和清晰的。

引用自:https://stats.stackexchange.com/questions/394648