期待値最大化アルゴリズムが使用されるのはなぜですか?


22

私が知る限り、尤度のパラメーターに関する偏微分をゼロに設定すると、EMアルゴリズムを使用して最尤を見つけることができ、分析的に解くことができない方程式のセットが得られます。しかし、前述の一連の方程式の制約に関する尤度の最大値を見つけるために、何らかの数値手法を使用する代わりに、EMアルゴリズムが必要です。

回答:


20

質問は合法であり、EMアルゴリズムを最初に学んだときと同じ混乱がありました。

一般的に、EMアルゴリズムは、モデルの一部の変数が「潜在」または未知である(または扱われる)場合に、パラメトリックモデルの尤度関数を最大化できる反復プロセスを定義します。

理論的には、同じ目的で、最小化アルゴリズムを使用して、すべてのパラメーターの尤度関数の最大値を数値的に見つけることができます。ただし、実際の状況では、この最小化は次のようになります。

  1. はるかに計算集約的
  2. 堅牢性が低い

EM法の非常に一般的な用途は、混合モデルの適合です。この場合、各サンプルをコンポーネントの1つに「潜在的な」変数として割り当てる変数を考慮すると、問題は大幅に簡素化されます。

例を見てみましょう。2つの正規分布の混合物から抽出されたN個のサンプルます。EMなしでパラメーターを見つけるには、最小化する必要があります。s={si}

logL(x,θ)=log[a1exp((xμ1)22σ12)+a2exp((xμ222σ22]

それどころか、EMアルゴリズムを使用して、まず各サンプルをコンポーネントに「割り当て」(Eステップ)、次に各コンポーネントを個別に適合(または尤度最大化)します(Mステップ)。この例では、M-ステップは、単に見つけるための加重平均であるσ kは。この2つのステップの繰り返し処理で最小限に抑えるために、よりシンプルで堅牢な方法である- ログLX θ μkσkログLバツθ


12

バツ=バツ1バツnfバツ|Θバツ|θ

lθ;バツ=logfバツ|Θバツ|θ
バツYZバツ=YZ
lobsθY=logfバツ|ΘYz|θνzdz
lobsθY+1th
Qθ|θ=Eθ[lθ;バツ|Y]
θΘthQθ|θθθ+1=maバツQθ|θ。次に、メソッドが推定値になる値に収束するまで、これらの手順を繰り返します。

メソッド、プロパティ、証明、またはアプリケーションに関する詳細情報が必要な場合は、対応するWiki記事をご覧ください。


1
+1 ... EMは、欠損値の場合だけではありません。
Glen_b-モニカを復活

@Andy:欠損データの場合を考慮しても、一般的な数値的手法を使用して偏導関数がゼロである点を見つけられない理由はまだわかりません。
user782220

グレンのおかげで、私はそれを欠損値/潜在変数のコンテキストでしか知りませんでした。@ user782220:対数尤度導関数の閉形式の解が得られない場合、導関数をゼロに設定してもパラメーターは識別されません。これが、この場合に数値法を使用する理由です。説明と例については、こちらの講義をご覧ください:people.stat.sfu.ca/~raltman/stat402/402L5.pdf
Andy

1

EMが使用されるのは、そのモデルが与えられたデータセットの確率を最大化するモデルのパラメーターを直接計算することがしばしば不可能または不可能だからです。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.