R

如何解釋 Harvey-Collier 檢驗和 Rainbow 檢驗的線性方向?

  • February 13, 2015

我使用 lmtest 包用 R 實現了這兩個測試。兩個測試在方向上都說了同樣的事情(我認為),p 值非常相似,非常接近 0。但是,這些測試是否表明基礎回歸模型的殘差是足夠線性的。還是他們說的正好相反。我知道測試的細微差別略有不同。Harvey-Collier 檢驗指示殘差是否是線性的。同時,Rainbow 檢驗表明即使某些潛在關係不是線性的,模型的線性擬合是否足夠。非常感謝對這些結果的解釋的任何見解。

我在下面發布測試結果:

在帶有 lmtest 包的 R 中。

harvtest(回歸,order.by = NULL)

   Harvey-Collier test

數據:回歸 HC = 4.3826,df = 119,p 值 = 2.543e-05

Raintest(回歸,分數 = 0.5,order.by = NULL,中心 = NULL)

   Rainbow test

數據:回歸雨 = 1.7475,df1 = 62,df2 = 58,p 值 = 0.01664

好的,我找不到 Harvey-Collier 測試的很好參考;他們似乎幾乎都被付費牆了。然而,彩虹測試背後的直覺很容易描述。

假設您正在嘗試擬合一個不合適的線性模型。讓我們使用一個非常簡單的二次模型,例如:.

彩虹測試的想法是,當你“放大”曲線時(通過僅查看中心數據),曲線看起來不那麼彎曲——更像一條線——因此模型的擬合度得到了改善。因此,例如,如果我們在從上面的模型中抽取 100 次的完整數據集上創建一個線性模型,我們會得到以下結果:

全數據集回歸

相比之下,如果我們限制在距離均值 1 SD 的點,我們會得到:

子集回歸

如您所見,擬合顯著提高,並且限制看起來也更像線性模型。

另一方面,如果真實模型是線性的,我們不會期望在這種情況下擬合會變得更好。(它可能會好一點,因為我們會擬合更少的數據點,但是線性回歸會在受限數據上收斂到與完整數據集相同的模型,所以在限制範圍內,你會在兩者上得到相同的模型.)

彩虹測試基本上量化了我們在刪除數據時期望擬合得到的改善程度,在真實模型是線性的零假設下。如果真實模型不是線性的,那麼改進將比我們預期的要大。


至於您關於測試方向的具體問題,狀態文檔harvtest

Harvey-Collier 檢驗對遞歸殘差執行 t 檢驗(具有參數自由度)。如果真正的關係不是線性的而是凸的或凹的,則遞歸殘差的平均值應與 0顯著不同。

(強調。)這意味著顯著的結果意味著您可以拒絕真實模型是線性的零假設。

同樣,raintest狀態的文檔:

Rainbow檢驗的基本思想是,即使真正的關係是非線性的,也可以在數據“中間”的子樣本上實現良好的線性擬合。每當整體擬合顯著低於子樣本的擬合時,就會拒絕原假設。

這意味著當具有範圍限制的擬合更好時(如果模型是非線性的,則會發生這種情況),會出現顯著的結果(拒絕空值)。

所以這兩個測試都表明真正的模型不是線性的。

引用自:https://stats.stackexchange.com/questions/137498

comments powered by Disqus