Bayesian

比較最大似然估計 (MLE) 和貝葉斯定理

  • October 22, 2013

在貝葉斯定理中,

,從我正在閱讀的書中,被稱為可能性,但我認為這只是條件概率給定, 對? 最大似然估計試圖最大化, 對?如果是這樣,我很困惑,因為都是隨機變量,對吧?最大化只是為了找出 ? 還有一個問題,如果這兩個隨機變量是獨立的,那麼只是, 對?然後最大化是最大化.

或許,是一些參數的函數, 那是,並且 MLE 試圖找到可以最大化? 甚至那個實際上是模型的參數,而不是隨機變量,最大化似然就是找到?

更新

我是機器學習的新手,這個問題是我從機器學習教程中讀到的東西的混淆。在這裡,給定一個觀察到的數據集,目標值為,我嘗試在這個數據集上擬合一個模型,所以我假設,給定,有一種分佈形式,名為參數化, 那是,我假設這是後驗概率,對吧?

現在估計值,我使用 MLE。好的,我的問題來了,我認為可能性是, 對?最大化可能性意味著我應該選擇正確的和?

如果我對可能性的理解是錯誤的,請告訴我正確的方法。

我認為核心誤解源於您在問題前半部分提出的問題。我將這個答案視為對比 MLE 和貝葉斯推理範式。可以在 Gary King統一政治方法論的第 1 章中找到關於 MLE 的非常平易近人的討論。Gelman 的貝葉斯數據分析可以提供貝葉斯方面的詳細信息。

在貝葉斯定理中,

從我正在閱讀的書中,被稱為可能性,但我認為這只是條件概率給定, 對?

可能性一個條件概率。對於貝葉斯來說,這個公式描述了參數的分佈給定數據和之前. 但由於這種表示法不反映您的意圖,因此我將使用 (,) 用於參數和為您的數據。

但是您的更新表明從一些分佈中觀察到. 如果我們將數據和參數放在貝葉斯規則中的適當位置,我們會發現這些額外的參數對貝葉斯算法沒有任何問題:

我相信這個表達是你在更新中所追求的。

最大似然估計試圖最大化, 對?

是的。MLE 認為

也就是說,它處理術語作為一個未知(和不可知)的常數。相比之下,貝葉斯推理處理作為歸一化常數(以便概率總和/積分為單位)和作為關鍵信息:先驗。我們可以想到作為對我們認為最合理的區域“遊走太遠”的優化程序進行懲罰的一種方式。

如果是這樣,我很困惑,因為是隨機變量,對吧?最大化只是為了找出?

在 MLE 中,假設是一個未知但可以推斷的固定量,而**不是隨機變量。貝葉斯推理處理作為隨機變量。貝葉斯推理將概率密度函數放入並得到概率密度函數*,*而不是像 MLE 中的模型的點摘要。也就是說,貝葉斯推理著眼於參數值的全部範圍和每個參數值的概率。MLE 認為是給定模型的數據的充分總結。

引用自:https://stats.stackexchange.com/questions/73439

comments powered by Disqus