回答:
EMアルゴリズム(期待値最大化)は、モデルが観測されたコンポーネントと観測されていない(潜在的な)コンポーネントに関して確率論的に指定されている場合に、尤度関数を最適化するための一般的なアルゴリズムです。HMM(隠れマルコフモデル)は、この形式のモデルです。これには、観測されていないコンポーネント、隠れた状態があり、実際の観測はHMM用語でエミッションと呼ばれることが多いためです。したがって、HMMは、EMアルゴリズムが役立つモデルのクラスを形成します。
EMアルゴリズムは、上記の2つのステップを計算効率の高い方法で実装できる場合に最も意味があります。たとえば、条件付き期待値と最大化の閉形式の式がある場合などです。
歴史的に、一般的なEMアルゴリズムは、特に1977年の論文でアルゴリズムが単調に増加する尤度値を持つパラメーターのシーケンスにつながることを証明したDempster、Laird、およびRubinの功績が認められています。彼らはまた、「EMアルゴリズム」という用語を作り出した。興味深いことに、HMMのEMアルゴリズムはBaumらによって 1970年にすでに説明されています。、また、HMMの文献ではBaum-Welchアルゴリズムとも呼ばれています(Welchが何をしたのか正確にはわかりません...)。
期待値の最大化は、さまざまな生成統計モデル、たとえばガウス混合モデルと他のベイジアンネットワークタイプモデルの統計的推論を実行するために使用される反復法です。唯一の関係は、HMMもベイジアンネットワークであることです。しかし、ビタビアルゴリズムと呼ばれるHMM内の推論のための正確なアルゴリズムがあるため、おそらくHMMでEMを使用しないでしょう。したがって、EMを使用してHMMで推論を実行することはできますが、理由がないため、そうすることはできません。
HMMでは、主に3つのパラメーターを推定します。
さて、EMパーツは、上記の量/パラメータを推定しようとすると発生します。ランダムな推測から始めて、観測の可能性が評価され、最大の可能性が得られるまでパラメーターが繰り返し調整されます。したがって、HMMを介していくつかのプロセスをモデル化し、そのためにいくつかのパラメーターを導入する必要があります。パラメータを推定するために、EMがレンダリングされます。
これは非常に短い答えです。EMを実装するには、一連の手法で解決するために、他の多くのサブ問題が必要です。詳細を理解するには、Rabinerのクラシックチュートリアルペーパーを強くお勧めします。