コイントスの例への期待値最大化の適用


18

私は最近、期待値の最大化について自己研究しており、その過程でいくつかの簡単な例を取得しました。

ここから:3枚のコインc 1c 2がありp 0p 1、およびp 2は、投げられたときに頭に着く確率です。トスc 0。結果がHeadの場合、c 1を 3回トスし、それ以外の場合、c 2を 3回トスしますc 1およびc 2によって生成される観測データは、HHH、TTT、HHH、TTT、HHHのようなものです。隠されたデータはc 0の結果です。推定pc0c1c2p0p1p2c0c1c2c1c2c0 P 1及び P 2p0p1p2

そしてここから:2つのコインc Bがありp Ap Bは投げられたときに頭に着く確率です。各ラウンドで、コインをランダムに1枚選択し、10回投げます。結果を記録します。観察されたデータは、これらの2つのコインによって提供されるトス結果です。ただし、特定のラウンドでどのコインが選択されたかはわかりません。p Aおよびp Bを推定します。cAcBpApBpApB

計算を取得することはできますが、それらの解決方法を元のEM理論に関連付けることはできません。具体的には、両方の例のMステップで、どのように最大化されているのかわかりません。パラメータを再計算しているようで、新しいパラメータは古いパラメータよりも優れています。さらに、2つのEステップは、元の理論のEステップは言うまでもなく、互いに似ているようにも見えません。

それでは、これらの例はどのように機能するのでしょうか?


最初の例では、同じ実験のインスタンスをいくつ取得しますか?2番目の例では、「ランダムに1つのコインを選択する」という法則は何ですか?いくつのラウンドを観察しますか?
ラファエル

私がリンクしたPDFファイルは、これら2つの例を段階的に解決しています。ただし、使用されているEMアルゴリズムが本当に理解できません。
IcySnow

@IcySnow、ランダム変数の期待と条件付き期待の概念を理解していますか?
ニコラスマンクーソ

ランダム変数と条件付き確率の基本的な期待を理解しています。ただし、条件付き期待値、その派生値、および十分な統計については詳しくありません。
IcySnow

回答:


12

(この回答では、指定した2番目のリンクを使用します。)

尤度の定義を思い出してください: 我々の場合にはθ = θ Aθ B確率の推定量であること硬貨A及びBはそれぞれランドヘッド、X = X 1... X 5実験の結果である、各

L[θ|X]=Pr[X|θ]=ZPr[X,Z|θ]
θ=(θA,θB)X=(X1,,X5)は10回のフリップで構成され、 Z = Z 1Z 5 は各実験で使用されたコインです。XiZ=(Z1,,Z5)

私たちは、最尤推定量を見つけたいθを。期待値最大化(EM)アルゴリズム(少なくとも局所を見つけるためにこのような方法の一つであるθを。条件付き期待値を見つけることで機能し、それを使用してθを最大化します。アイデアは 、各反復でより可能性の高い(つまり、より可能性の高い)θを継続的に見つけることによりPr [ X Z | θ ]は、尤度関数を増加させます。EMベースのアルゴリズムを設計する前に、3つのことを行う必要があります。θ^θ^θθPr[X,Z|θ]

  1. モデルを作成する
  2. モデルの下での条件付き期待値の計算(E-Step)
  3. θ

モデルを構築する

logPr[X,Z|θ]

logPr[X,Z|θ]=i=15logC{A,B}Pr[Xi,Zi=C|θ]=i=15logC{A,B}Pr[Zi=C|Xi,θ]Pr[Xi,Zi=C|θ]Pr[Zi=C|Xi,θ]i=15C{A,B}Pr[Zi=C|Xi,θ]logPr[Xi,Zi=C|θ]Pr[Zi=C|Xi,θ].
log

Pr[Zi=C|Xi,θ]CXiθ

Pr[Zi=C|Xi,θ]=Pr[Xi,Zi=C|θ]Pr[Xi|θ].

Xihi=#heads in Xi

Pr[Xi,Zi=C|θ]=12θChi(1θC)10hi,  for  C{A,B}.
Pr[Xi|θ]Zi=AZi=BPr[Zi=A]=Pr[Zi=B]=1/2
Pr[Xi|θ]=1/2(Pr[Xi|Zi=A,θ]+Pr[Xi|Zi=B,θ]).

Eステップ

θθ0=(0.6,0.5)

Pr[Z1=A|X1,θ]=1/2(0.650.45)1/2((0.650.45)+(0.550.55))0.45.
X1=(H,T,T,T,H,H,T,H,T,H)A
E[#heads by coin A|X1,θ]=h1Pr[Z1=A|X1,θ]=50.452.2.
B
E[#heads by coin B|X1,θ]=h1Pr[Z1=B|X1,θ]=50.552.8.
h110h1Xihi 1i5
E[#heads by coin A|X,θ]=i=15E[#heads by coin A|Xi,θ]

Mステップ

θ

θA1=E[#heads over X by coin A|X,θ]E[#heads and tails over X by coin A|X,θ]=21.321.3+9.60.71.
Bθ1θθ^=θ10=(0.8,0.52)Pr[X,Z|θ]θ

θ^


明確でない部分がある場合は、それらを拡張することもできます。
ニコラスマンクーソ

今ではもっとはっきりしています。本当に得られないのは、コインAの予想ヘッド数が次のように計算された理由です:E [#heads by coin A | X1、θ] =h1⋅Pr[Z1 = A | X1、θ] =5⋅0.45 ≈2.2?最初のPDFで言及されている問題はより複雑です。気にしない場合は、そのための例示的な計算もできますか?ご回答ありがとうございます。
IcySnow

E[# heads by coin A|X1,θ]=# heads in X1Pr[Z1=A|X1,θ]=5Pr[Z1=A|X1,θ]。理由は、Aが使用された場合、別のインジケーターのランダム変数があると考えることができるからです。指標変数に対する期待値の計算は、そのイベントの確率である単純です。
ニコラス

返信が遅くなってすみません。おかげで、何度も答えを読んだ後、2つのコインの例の背後にあるロジックを本当に理解できました。この質問に関して最後にお願いしたいことが1つあります。このスライドの8ページから始まる例cs.northwestern.edu/~ddowney/courses/395_Winter2010/em.pptは、M-Stepで最初に計算する必要があることを示しています対数尤度関数の導関数であり、それを使用して期待値を最大化します。コイントスの例のM-Stepsで、なぜそのようなことはないのですか?これらのMステップは、最大化されているようには見えないため
IcySnow

Pr[Zi=A|Xi,θ]+Pr[Zi=B|Xi,θ]=1i
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.