Classification
Jeffries Matusita 距離的優點
根據我正在閱讀的一些論文,杰弗里斯和馬圖西塔距離是常用的。但除了下面的公式,我找不到太多關於它的信息
JMD(x,y)=
除了平方根之外,它類似於歐幾里得距離
E(x,y)=
據稱,JM 距離在分類方面比歐幾里得距離更可靠。誰能解釋為什麼這種差異使 JM 距離更好?
在下面進行更長時間的解釋之前,一些主要區別是:
- 至關重要的是:Jeffries-Matusita 距離適用於分佈,而不是一般的向量。
- 您在上面引用的 JM 距離公式僅適用於表示離散概率分佈的向量(即總和為 1 的向量)。
- 與歐幾里得距離不同,JM 距離可以推廣到可以製定 Bhattacharrya 距離的任何分佈。
- JM 距離通過 Bhattacharrya 距離具有概率解釋。
Jeffries-Matusita 距離在遙感文獻中似乎特別流行,它是Bhattacharrya 距離的變換(一種流行的衡量兩個分佈之間差異的度量,在此表示為) 從範圍到固定範圍:
根據本文,JM 距離的一個實際優勢是,該度量“傾向於抑制高可分離性值,同時過分強調低可分離性值”。
Bhattacharrya 距離衡量兩個分佈的不同程度和在以下抽象的連續意義上:
如果分佈和由直方圖捕獲,由單位長度向量表示(其中th 元素是歸一化計數的垃圾箱)這變成:
因此,兩個直方圖的 JM 距離為:
其中,注意對於歸一化直方圖, 與您上面給出的公式相同: