Self-Study

推導 K-means 算法作為高斯混合期望最大化的極限

  • January 11, 2015

Christopher Bishop定義了完整數據對數似然函數的期望值(即假設給定可觀察數據 X 和潛在數據 Z)如下:

$$ \mathbb{E}\textbf{Z}[\ln p(\textbf{X},\textbf{Z} \mid \boldsymbol{\mu}, \boldsymbol{\Sigma}, \boldsymbol{\pi})] = \sum{n=1}^N \sum_{k=1}^K \gamma(z_{nk}){\ln \pi_k + \ln \mathcal{N}(\textbf{x}_n \mid \ \boldsymbol{\mu}_k, \boldsymbol{\Sigma}_k)} \tag 1 $$

在哪裡 γ(znk) 定義為:

$$ \frac{\pi_k \mathcal{N}(\textbf{x}_n \mid \ \boldsymbol{\mu}_k, \boldsymbol{\Sigma}k)}{\sum{j=1}^K \pi_j \mathcal{N}(\textbf{x}_n \mid \ \boldsymbol{\mu}_j, \boldsymbol{\Sigma}_j)} \tag 2 $$

如上所述,這個想法是考慮一個高斯混合模型,其中混合分量的協方差矩陣由下式給出 ϵI , 在哪裡 ϵ 是所有組件共享的方差參數,例如:

p(\textbf x \mid \boldsymbol \mu_k, \boldsymbol \Sigma_k) = \frac{1}{(2 \pi \epsilon)^\frac{M}{2}} \exp\big{{-\frac{1}{2 \epsilon} |\textbf x - \boldsymbol \mu_k|^2}\big} \tag 3

所以, γ(znk) 現在定義為:

πkexp|xnμk|2/2ϵKj=1πjexp|xnμj|2/2ϵ

現在的論據如下:

如果我們考慮極限 ϵ0 ,我們看到在分母中 |xnμj|2 最小,將最慢地歸零,因此責任 γ(znk) 對於數據點 xn 全部歸零,除了第 j 項,其責任 γ(znk) 會去團結。因此,在這個限制中,我們獲得了將數據點硬分配給集群,就像在 K -表示算法,因此 γ(znk)rnk

在哪裡 rnk 定義為:

f(n)={1if k=arg minj|xnμj|2 0otherwise 

我的問題是上述論點如何成立?也就是說,一個項歸零是什麼意思 most slowly ? 以及如何採取限制 ϵ0 在等式 4 導致二元責任?

讓我們寫

然後

如果我們採取 我們有

在哪裡除了在哪裡. 所以,對於所有人,

因此,

儘管

引用自:https://stats.stackexchange.com/questions/132995