Model-Selection
為什麼使用 AIC 應用模型選擇會給我的變量 p 值不顯著
我有一些關於 AIC 的問題,希望你能幫助我。我根據我的數據的 AIC 應用了模型選擇(向後或向前)。一些選定的變量最終的 p 值 > 0.05。我知道人們說我們應該根據 AIC 而不是 p 值來選擇模型,所以 AIC 和 p 值似乎是兩個不同的概念。有人能告訴我有什麼區別嗎?到目前為止我的理解是:
- 對於使用 AIC 的反向選擇,假設我們有 3 個變量(var1、var2、var3)並且該模型的 AIC 是 AIC*。如果排除這三個變量中的任何一個變量最終不會得到明顯低於 AIC* 的 AIC(就 df=1 的 ch 方分佈而言),那麼我們會說這三個變量是最終結果。
- 三變量模型中變量(例如 var1)的顯著 p 值意味著該變量的標準化效應大小與 0 顯著不同(根據 Wald 或 t 檢驗)。
這兩種方法的根本區別是什麼?如果在我的最佳模型(通過 AIC 獲得)中有一些變量的 p 值不顯著,我該如何解釋它?
AIC 及其變體更接近於然後是每個回歸器的 p 值。更準確地說,它們是對數似然的懲罰版本。
您不想使用卡方檢驗 AIC 的差異。您可以使用卡方檢驗對數似然的差異(如果模型是嵌套的)。對於 AIC,越低越好(無論如何,在它的大多數實現中)。無需進一步調整。
如果可能的話,您真的想避免使用自動模型選擇方法。如果您必須使用一個,請嘗試 LASSO 或 LAR。