ガウス混合の期待値最大化の限界としてのK平均アルゴリズムの導出


8

クリストファー・ビショップは、完全なデータ対数尤度関数の期待値を定義します(つまり、観測可能なデータXと潜在的なデータZの両方が与えられていると仮定します)。

(1)EZ[lnp(X,Zμ,Σ,π)]=n=1Nk=1Kγ(znk){lnπk+lnN(xn μk,Σk)}

ここで、γ(znk)は次のように定義されます:

(2)πkN(xn μk,Σk)j=1KπjN(xn μj,Σj)

説明したように、アイデアは、混合成分の共分散行列がϵIによって与えられるガウス混合モデルを考えることです。ここで、ϵは、すべての成分によって共有される分散パラメーターです。それ:

(3)p(xμk,Σk)=1(2πϵ)M2exp{12ϵxμk2}

したがって、γ(znk)は次のように定義されます。

(4)πkexp{xnμk2/2ϵ}j=1Kπjexp{xnμj2/2ϵ}

引数は今以下のとおりであります:

制限を考慮すると、分母に項があることがわかりますは最小で、最もゆっくりとゼロに移行するため、データポイントの責任は、項jを除いてすべてゼロになります。責任が統一されます。したがって、この制限では、平均アルゴリズムと同じように、クラスターへのデータポイントのハード割り当てを取得します。そのため、 z_ϵ0xnμj2γ(znk)xnγ(znk)Kγ(znk)rnk

ここで、は次のように定義されています。rnk

(5)f(n)={1if k=arg minjxnμj20otherwise

私の質問は、上記の議論はどのように成り立つのですか?つまり、項が0になるのはどういう意味ですか?また、eqnで制限すると、バイナリ責任がどのように発生しますか?most slowlyϵ04


1
ときゼロになる、は、すべてのゼロになりますが、速度は、最小であるに応じて異なりますは、制限内で全体の重みを収集します。ϵexp{xnμk2/2ϵ}=exp{δn/ϵ}nδnδn
西安

1
あなたが取る場合(詳しい説明)最小として、あなたにすべての用語を書き換えることができますすべての用語がでゼロに行く意味し、1つを除く、つまり。δδnexp{(δδn)/ϵ}ϵδδn=0
西安

@ Xi'anもう少し詳しく説明してもらえますか?「最小のが限界内の重み全体を集める」とはどういう意味ですか?そして、 = 0 の項はどのように評価されて1になりますか?つまり、分子は0ですよね?δnδδn
BitRiver 2015年

回答:


8

書いてみましょう 次に、 我々が取る場合は 私たちがしている ここで、を除く

xnμk2=δk.
πkexp{xnμk2/2ϵ}j=1Kπjexp{xnμj2/2ϵ}=πkexp{δk/2ϵ}j=1Kπjexp{δj/2ϵ}
δ=minnδn,
πkexp{δk/2ϵ}j=1Kπjexp{δj/2ϵ}=πkexp{(δδk)/2ϵ}j=1Kπjexp{(δδj)/2ϵ}
δδk<0k=kδδk=0です。したがって、すべてのに対して、 、場合、 while kk
limϵ0πkexp{(δδk)/2ϵ}j=1Kπjexp{(δδj)/2ϵ}=limϵ0πkexp{(δδk)/2ϵ}πk+jkπjexp{(δδj)/2ϵ}=0
a>0
limϵ0exp{a/ϵ}=0
limϵ0πkexp{(δδk)/2ϵ}j=1Kπjexp{(δδj)/2ϵ}=limϵ0πk×1πk+jkπjexp{(δδj)/2ϵ}=1
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.