私の目標は、K平均アルゴリズムが実際にガウス混合の期待値最大化アルゴリズムであり、すべての成分がの範囲の共分散を確認することです。σ2Ilimσ→0
確率変数Xの観測のデータセット{x1,…,xN}があるとします。
M平均の目的関数は、
J = \ sum_ {n = 1} ^ {N} \ sum_ {k = 1} ^ {K} r_ {nk} || x_n-\ mu_k || ^ 2
で与えられます。r_ {nk}は、クラスターkへのx_nのハード割り当てのバイナリインジケーター変数です。
(データポイントx_nがクラスターkに割り当てられている場合、j \ ne kに対してr_ {nk} = 1およびr_ {nj} = 0)。
K平均アルゴリズムは、収束するまで反復によってJを最小化します。これには、2つの連続するステップが含まれます。
(E)最小化X
J=∑n=1N∑k=1Krnk||xn−μk||2
rnkxnkxnkrnk=1rnj=0j≠JJに対して
{rnk}n,kのすべてを維持
μk固定
最小(M)を
Jに対して、
{μk}k全て維持
rnk固定
一般に、すべての観測データをX、すべての潜在変数をZ、すべてのモデルパラメーターのセットを\ thetaで表すθと、EMアルゴリズムは2つの交互のステップの収束まで反復により事後分布p(θ|X)を最大化します:
(E )期待値を計算するQ(θ,θold):=∑Zp(Z|X,θold)logp(Z,X|θ)
(M)検索θnew=argmaxθQ(θ,θold)
次に、ガウス混合分布を考えます
潜在的な次元のバイナリ確率変数を、次のことがわかります:
したがって
p(x)=∑k=1KπkN(x|μk,Σk)
Kzp(zk=1)=πk
p(X,Z)=∏n=1N∏k=1KπznkkN(xn|μk,Σk)znk
γ(zk):=p(zk=1|x)=πkN(x|μk,Σk)∑Kj=1πjN(x|μj,Σj)
logp(X,Z|μ,Σ,π)=∑n=1N∑k=1Kznk(logπk+logN(xn|μk,Σk))
E(znk)=γ(znk)
Q((π,μ,Σ),(π,μ,Σ)old)=∑n=1N∑k=1Kγ(znk)(logπk+logN(xn|μk,Σk))
混合モデル内のすべてのガウス分布が共分散持っている場合、極限を考慮すると、であることがここで、は上記で定義。したがって、実際には(E)ステップは、K平均アルゴリズムと同様にを更新します。σ2Iσ→0γ(znk)→rnkrnkrnk
しかし、私はこのコンテキストでを最大化することに問題があり。
いくつかの定数およびスカラー乗算まで、それは本当ですか:
?Q((π,μ,Σ),(π,μ,Σ)old)x≠μ
limσ→0log(N(x|μ,σ2))=−∞
limσ→0Q((π,μ,Σ),(π,μ,Σ)old)=−J
多分私は何かが欠けています。何かアドバイス?