Generalized-Linear-Model

為什麼 GLM 預測平均值而不是眾數?

  • September 27, 2015

為什麼 GLM 預測信號的平均值而不是模式?這是否與 GLM 背後的基礎(即最大似然)相矛盾?求解 GLM 中模型參數的方程基於建模信號的概率分佈所描述的似然最大化。這個概率分佈對於眾數而不是均值是最大的(**正態分佈是一個例外:眾數和均值都是相同的)。因此,GLM 應該預測模式,而不是信號的平均值!(有關此問題的一些背景信息,請參見此處。)

最大似然擬合的目標是確定最適合數據的某些分佈的參數 - 更一般地說,所述參數如何隨協變量而變化。在 GLM 的情況下,我們想要確定參數一些指數族分佈,以及它們如何成為一些協變量的函數.

對於過度分散指數族中的任何概率分佈,均值保證與規範指數族參數有關通過規範鏈接功能,. 我們甚至可以確定一個通用公式,並且通常也是可逆的。如果我們簡單地設置和,我們自動得到一個模型和隨,無論我們處理什麼分佈,該模型都可以通過凸優化輕鬆可靠地擬合數據馬特的回答顯示了它如何適用於伯努利分佈,但真正的魔力在於它適用於家庭中的每個分佈。

該模式不享有這些屬性。事實上,正如 Cliff AB 所指出的,眾數甚至可能與分佈參數沒有雙射關係,因此從眾數推斷的能力非常有限。以伯努利分佈為例。它的模式是 0 或 1,知道模式只會告訴你是否,概率為 1,大於或小於 1/2。相比之下,均值告訴你究竟是什麼是。

現在,澄清問題中的一些混淆:最大似然不是關於找到分佈的模式,因為似然與分佈的函數不同。可能性在其公式中涉及您的模型分佈,但這就是相似之處的結束。似然函數接受一個參數值作為輸入,並告訴您整個數據集的“可能性”有多大,因為模型分佈具有. 模型分佈取決於,但作為一個函數,它需要一個值作為輸入,並告訴您該分佈中的隨機樣本多久相等. 最大的和模式不是一回事。

也許它有助於查看可能性的公式。在 IID 數據的情況下, 我們有

的價值觀都是固定的 - 它們是您數據中的值。最大似然是找到最大化. 找到分佈的模式將找到最大化,這不是我們想要的:在可能性中是固定的,而不是變量。 因此,尋找似然函數的最大值通常與尋找模型分佈的眾數不同。(這是另一種分佈的模式,如果你問一個客觀的貝葉斯,但那是一個非常不同的故事!)

引用自:https://stats.stackexchange.com/questions/174390

comments powered by Disqus