不一致的最大似然估計量示例
我正在閱讀一篇論文的評論,作者指出,有時,即使估計量(由 ML 或最大擬似然發現)可能不一致,似然比或擬似然比檢驗的功效仍然可以收斂到1 因為觀察到的數據數量趨於無窮(測試一致性)。這是如何以及何時發生的?你知道一些參考書目嗎?
[我認為這可能是您問題中討論的那種情況的一個例子。]
有許多不一致的 ML 估計器的例子。不一致常見於各種稍微複雜的混合問題和審查問題。
[測試的一致性基本上只是對(固定)錯誤假設的測試的力量增加到1,因為.]
Radford Neal 在他的博客文章 2008-08-09 Inconsistent Maximum Likelihood Estimation: An “Ordinary” Example中給出了一個例子。它涉及參數的估計在:
(尼爾使用我在哪裡) 其中 ML 估計為會傾向於作為(實際上,對於相當適中的樣本量,在接近 0 的峰值中的可能性可能遠高於真實值)。然而,在真實值附近有一個峰值,它只是比接近 0 的那個小。
現在想像一下與這種情況有關的兩個案例:
a) 進行似然比檢驗反對替代方案;
b) 進行似然比檢驗反對替代方案.
在情況 (a) 中,假設真(因此替代方案為真,並且是真實的另一面)。然後儘管非常接近 0 的可能性會超過, 的可能性在然而超過了在即使在小樣本中,該比率也會隨著, 以使似然比檢驗中的拒絕概率變為 1。
事實上,即使在情況 (b) 中,只要是固定的並且有界遠離,也應該是似然比將以這樣的方式增長,使得似然比檢驗中的拒絕概率也接近 1。
所以這似乎是一個不一致的 ML 估計的例子,其中 LRT 的功率仍然應該達到 1(除非當)。
[請注意,在 whuber 的回答中確實沒有任何內容,我認為這是一個清晰的示例,並且對於理解測試一致性和估計器一致性之間的區別要簡單得多。就理解這種差異而言,特定示例中的不一致估計器不是 ML 的事實並不重要 - 並引入一個特別是 ML 的不一致估計器 - 正如我在這裡嘗試做的那樣 - 並沒有真正改變任何實質性的解釋。這裡示例的唯一真正意義在於,我認為它解決了您對使用 ML 估計器的擔憂。]