Machine-Learning

時刻和=X1+X2X3+X4X5X6+⋯和=X1+X2X3+X4X5X6+⋯Y=X_1 + X_2 X_3 + X_4 X_5 X_6 +cdots

  • November 30, 2019

Xi 是 iid 並且 X 表示這些隨機變量中的任何一個。我們在這裡假設 |E(X)|<1 以保證收斂。我對第三個時刻特別感興趣 E(Y3) . 對於前兩個時刻,我們有(見這裡):

E(Y)=E(X)1E(X), Var(Y)=Var(X)(1E2(X))(1E(X2)).

我感興趣的原因如下。讓 Z=X1+X1X2+X1X2X3+.

如果 E(X)=0 , 然後 E(Y)=E(Z)E(Y2)=E(Z2) ,請看這裡。我希望這對於更高的時刻不再適用,也就是說, E(Y3)E(Z3) . 最終,這就是我想證明的。雖然前兩個時刻不足以使模型可識別( Y 對比 Z ) 我希望通過使用前三個矩作為模型參數,這足以區分 YZ ,從而使模型可識別。注意 E(Z3)=E(X3)(1+3E(Z)+3E(Z2))1E(X3).

結果為 E(Z3) 來自第 4.2 節。在這篇文章中

更新

一種可能的計算方法 E(Yn) 如下。定義 Yk 作為第一個的總和 k 條款在 Y=X1+X2X3+X4X5X6+ . 然後 Yk+1=Yk+Vk+1Vk+1 作為一個產品 k+1 具有相同分佈的獨立同分佈隨機變量 X . 還, YkVk+1 是獨立的。因此

E(Ynk+1)=ni=0n!i!(ni)!E(Yik)(E(Xni))k+1.

我們可以專注於案例 n=3 首先。上述遞歸關係(如果正確)可能會導致解決方案。我們對此案感興趣 k , 作為 YkY (在分發中。)我們還有以下遞歸:

E(Ynk+1)=E(YkYn1k+1)+(E(X))k+1E(Yn1k+1).

更新 2

如果 X 有分佈 P(X=0.5)=0.5,P(X=0.5)=0.5 然後兩者 Y,Z 具有相同的均勻分佈 [1,1] . 那麼就不可能區分模型 Y 要么 Z .

我也看了case X = 正常 (0,1/4) . 的差異 Y 要么 Z 都與預期相同,由經驗證據證實,並且都等於 1/3 正如預期的那樣。然而,更高的時刻是不同的。下面是顯示經驗百分位數分佈的圖表,比較 Y (藍色)對比 Z (紅色),如果 X 是正常的 (0,1/4) . 它們明顯不同。

在此處輸入圖像描述

t1=X1t2=X2X3 等,所以 Y=iti . 然後在 Mathematica 的幫助下(像這樣):

E[Y3]=E[6i<j<ktitjtk+3ijt2itj+it3i] =6i<j<kE[X]i+j+k+3ijE[X2]iE[X]j+iE[X3]i =6E[X]6(1E[X])(1E[X]2)(1E[X]3) \[10pt]  +3E[X]E[X2](1E[X])(1E[X2])3E[X]E[X2]1E[X]E[X2]+E[X3]1E[X3] 

為了 Z ,我們同樣可以讓 u1=X1u2=X1X2 等,所以 Z=iui . 然後:

E[Z3]=E[6i<j<kuiujuk+3iju2iuj+iu3i] =6i<j<kE[X3]iE[X2]jiE[X]kj+3i<jE[X3]iE[X]ji   +3i>jE[X3]jE[X2]ij+iE[X3]i =s3(6s2s1+3s1+3s2+1)

在哪裡 sn=iE[Xn]i=E[Xn]/(1E[Xn]) .

引用自:https://stats.stackexchange.com/questions/438710