Maximum-Likelihood
如果負似然等同於似然最大化,為什麼我們要最小化負似然?
這個問題讓我困惑了很久。我理解使用“日誌”來最大化可能性,所以我不是在詢問“日誌”。
我的問題是,既然最大化對數似然等於最小化“負對數似然”(NLL),我們為什麼要發明這個 NLL?為什麼我們不一直使用“積極可能性”?NLL在什麼情況下受到青睞?
我在這裡找到了一點解釋。https://quantivity.wordpress.com/2011/05/23/why-minimize-negative-log-likelihood/,它似乎深入解釋了明顯的等價性,但並沒有解決我的困惑。
任何解釋將不勝感激。
這是一個替代答案:統計包中的優化器通常通過最小化函數的結果來工作。如果您的函數首先給出似然值,則使用對數來減少似然函數返回的值會更方便。然後,由於對數似然和似然函數具有相同的增加或減少趨勢,您可以最小化負對數似然,以便實際執行您正在測試的函數的最大似然估計。參見例如
nlminb
R中的函數here