私が知る限り、尤度のパラメーターに関する偏微分をゼロに設定すると、EMアルゴリズムを使用して最尤を見つけることができ、分析的に解くことができない方程式のセットが得られます。しかし、前述の一連の方程式の制約に関する尤度の最大値を見つけるために、何らかの数値手法を使用する代わりに、EMアルゴリズムが必要です。
私が知る限り、尤度のパラメーターに関する偏微分をゼロに設定すると、EMアルゴリズムを使用して最尤を見つけることができ、分析的に解くことができない方程式のセットが得られます。しかし、前述の一連の方程式の制約に関する尤度の最大値を見つけるために、何らかの数値手法を使用する代わりに、EMアルゴリズムが必要です。
回答:
質問は合法であり、EMアルゴリズムを最初に学んだときと同じ混乱がありました。
一般的に、EMアルゴリズムは、モデルの一部の変数が「潜在」または未知である(または扱われる)場合に、パラメトリックモデルの尤度関数を最大化できる反復プロセスを定義します。
理論的には、同じ目的で、最小化アルゴリズムを使用して、すべてのパラメーターの尤度関数の最大値を数値的に見つけることができます。ただし、実際の状況では、この最小化は次のようになります。
EM法の非常に一般的な用途は、混合モデルの適合です。この場合、各サンプルをコンポーネントの1つに「潜在的な」変数として割り当てる変数を考慮すると、問題は大幅に簡素化されます。
例を見てみましょう。2つの正規分布の混合物から抽出されたN個のサンプルます。EMなしでパラメーターを見つけるには、最小化する必要があります。
それどころか、EMアルゴリズムを使用して、まず各サンプルをコンポーネントに「割り当て」(Eステップ)、次に各コンポーネントを個別に適合(または尤度を最大化)します(Mステップ)。この例では、M-ステップは、単に見つけるための加重平均であるとσ kは。この2つのステップの繰り返し処理で最小限に抑えるために、よりシンプルで堅牢な方法である- ログL(X 、θ )。
EMが使用されるのは、そのモデルが与えられたデータセットの確率を最大化するモデルのパラメーターを直接計算することがしばしば不可能または不可能だからです。