期待の最大化の明確化


11

EMアルゴリズムに関する非常に役立つチュートリアルを見つけました。

チュートリアルの例と写真は単に見事です。

ここに画像の説明を入力してください

確率の計算に関する関連質問期待値の最大化はどのように機能しますか?

チュートリアルで説明されている理論を​​例にどのように接続するかについて、別の質問があります。

Eステップ中に、EMは、どこでもを下回る関数を選択しますこの関数は、。gtlogP(x;Θ)gt(Θ^(t))=logP(x;Θ^(t))

したがって、この例のは、反復ごとに異なるように見えます。gt

さらに、例ではとをデータに適用すると、得られますおよび。私にとっては直観に反するように見えます。以前にいくつかの仮定があり、それをデータに適用して新しい仮定を取得したため、データは何らかの形で仮定を変更しました。がと等しくない理由がわかりません。 Θ 0 B =0.5 Θ 1 A =0.71 Θ 1 B =0.58 Θ0 Θ1Θ^A(0)=0.6Θ^B(0)=0.5Θ^A(1)=0.71Θ^B(1)=0.58Θ^(0)Θ^(1)

さらに、このチュートリアルの補足ノート1を見ると、さらに多くの質問が出てきます。たとえば、私たちのケースではは何。とき、なぜ不等式が厳しいのかははっきりしませんQ z = P z | x ; Θ Q(z)Q(z)=P(z|x;Θ)

ありがとうございました。

回答:


1

私が見つかりました。これらのノートは、補足資料で何が起こっていたかを考え出すのに非常に役立ちます。

継続性のために、これらの質問に少し順序を乱して答えます。


まず、なぜそれが

θ(0)θ(1)

g0log(P(x;θ))θ(0) G 0 θθ(1)g0θ


第二に、なぜ不平等が厳しいのか

Q(z)=P(z|x;θ)

これに関する脚注には、

確率変数が確率1で一定の場合(つまり、場合にのみ、等式が成立します。y=E[y]

選択ことを意味しますQP(x,z;θ)Q(z)

P(x,z;θ)=P(z|x;θ)P(x;θ)

私たちの分数になります

P(z|x;θ)P(x;θ)P(z|x;θ)=P(x;θ)

P(x;θ)zC

log(zQ(z)C)zQ(z)log(C)

ここから、定数の期待値は重み(関係なくその定数になるので、2つの辺が等しいことがすぐにわかります。Q(z)


gt

私がリンクしたノートで与えられた答えは、補足ノートの答えとは少し異なりますが、それらは定数だけが異なり、最大化しているため、重要ではありません。注の1つ(派生あり)は次のとおりです。

gt(θ)=log(P(x|θ(t)))+zP(z|x;θ(t))log(P(x|z;θ)P(z|θ)P(z|x;θ(t))P(x|θ(t)))

この複雑な式は補足ノートでは詳しく説明されていません。おそらくこれらの用語の多くは定数であり、最大化すると破棄されます。私たちが最初にここに到着する方法に興味がある場合は、リンクしたメモをお勧めします。

gt(θ(t))gt(θ(t))=logP(x|θ(t))

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.