HMMフィッティングにおけるMLEとBaum Welchの違い


9

ではこの人気の質問、高いupvoted答えはMLEとバウムウェルチは、HMMのフィッティングに分けることができます。

トレーニングの問題には、次の3つのアルゴリズムを使用できます。MLE(最尤推定)、ビタビトレーニング(ビタビデコードと混同しないでください)、バウムウェルチ=前方後方アルゴリズム

しかし、ウィキペディアでは、それは言います

Baum–Welchアルゴリズムは、よく知られたEMアルゴリズムを使用して、パラメーターの最尤推定値を見つけます。

それでは、MLEとBaum–Welchアルゴリズムの関係は何ですか?


私の試み:Baum–Welchアルゴリズムの目的は可能性を最大化することですが、最適化を解決するために特殊なアルゴリズム(EM)を使用します。勾配の適正など、他の方法を使用することで、可能性を最大化できます。これが、答えが2つのアルゴリズムを分離する理由です。

私は正しいですか、誰かが私を明確にするのを手伝ってくれる?


1
HMMの範囲では、MLEは監視されたシナリオで使用され、Baum-Welchは監視されていないシナリオで使用されます。
David Batista

回答:


3

提供した質問リンクからの回答の1つ(Masterfoolによる)を参照してください。

Moratの答えは1つの点で偽です:Baum-Welchは、HMMのパラメーターをトレーニングするために使用される期待値最大化アルゴリズムです。これは、各反復中に順方向-逆方向アルゴリズムを使用します。順方向-逆方向アルゴリズムは、実際には、順方向アルゴリズムと逆方向アルゴリズムの単なる組み合わせです。1つの順方向パスと1つの逆方向パスです。

そして、ここでのPierreEの答えに同意します。HHMの最大尤度を解くためにBaum–Welchアルゴリズムが使用されます。状態がわかっている場合(監視あり、ラベル付きシーケンス)、MLEを最大化する他の方法が使用されます(トレーニングデータで観察される各放出と遷移の頻度を数えるだけです。フランクダーノンコートが提供するスライドを参照してください)。

HMMのMLEの設定では、可能性(または対数尤度)は閉形式の解を持たず、反復的に解決する必要があるため、勾配降下法を使用することはできないと思います。混合モデルなので、EMに移ります。(詳細については、ビショップ、パターン認識、13.2.1章Pg614を参照)


0

それでは、MLEとBaum–Welchアルゴリズムの関係は何ですか?

Expectation maximization(EM)アルゴリズムはより一般的で、Baum-Welchアルゴリズムは単にそのインスタンス化であり、EMは最尤(ML)の反復アルゴリズムです。この場合、バウム・ウェルチアルゴリズムも最大尤度の反復アルゴリズムです。

通常、最尤推定(頻出アプローチ)には3つの最適化アルゴリズムがあります。1)勾配降下法。2)マルコフ連鎖モンテカルロ; 3)期待の最大化。


-1

この質問は数か月前から出ていますが、この回答は、David Batistaのコメントを補足するものとして、新しい読者に役立つかもしれません。

Baulm-Welchアルゴリズム(BM)は、状態が不明/非表示の場合にHMMをトレーニングするための最尤推定(MLE)を解くための期待値最大化アルゴリズムです(教師なしトレーニング)。

ただし、状態がわかっている場合は、MLEメソッド(BMにはなりません)を使用して、監視された方法でモデルをデータと状態のペアに適合させることができます。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.