1
期待の最大化の明確化
EMアルゴリズムに関する非常に役立つチュートリアルを見つけました。 チュートリアルの例と写真は単に見事です。 確率の計算に関する関連質問期待値の最大化はどのように機能しますか? チュートリアルで説明されている理論を例にどのように接続するかについて、別の質問があります。 Eステップ中に、EMは、どこでもを下回る関数を選択しますこの関数は、。gtgtg_tログP(x ; Θ )logP(x;Θ)\log P(x;\Theta)gt(Θ^(t ))= ログP(x ; Θ^(t ))gt(Θ^(t))=logP(x;Θ^(t))g_t( \hat{\Theta}^{(t)}) = \log P(x; \hat{\Theta}^{(t)}) したがって、この例のは、反復ごとに異なるように見えます。gtgtg_t さらに、例ではとをデータに適用すると、得られますおよび。私にとっては直観に反するように見えます。以前にいくつかの仮定があり、それをデータに適用して新しい仮定を取得したため、データは何らかの形で仮定を変更しました。がと等しくない理由がわかりません。 Θ (0 ) B =0.5 Θ (1 ) A =0.71 Θ (1 ) B =0.58 Θ(0) Θ(1)Θ^(0 )あ= 0.6Θ^A(0)=0.6\hat{\Theta}_A^{(0)} = 0.6Θ^(0 )B= 0.5Θ^B(0)=0.5\hat{\Theta}_B^{(0)} = 0.5Θ^(1 )あ= 0.71Θ^A(1)=0.71\hat{\Theta}_A^{(1)} = 0.71Θ^(1 …