隠れマルコフモデルにおける初期遷移確率の重要性


11

隠れマルコフモデルで遷移確率に特定の初期値を与えることの利点は何ですか?最終的にシステムがそれらを学習するので、ランダムな値以外の値を指定する意味は何ですか?根底にあるアルゴリズムはBaum–Welchなどの違いをもたらしますか?

初めに遷移確率を非常に正確に知っており、私の主な目的が隠れた状態から観測までの出力確率を予測することである場合、何をアドバイスされますか?

回答:


7

Baum-Welchは、最尤推定量を計算するための最適化アルゴリズムです。隠れマルコフモデルの場合、尤度曲面はかなり醜く、凹型ではありません。開始点が適切であれば、アルゴリズムはより速く、MLEに向かって収束する可能性があります。

遷移確率が既にわかっていて、ビタビアルゴリズムによって隠れた状態を予測する場合は、遷移確率が必要です。それらをすでに知っている場合は、Baum-Welchを使用してそれらを再推定する必要はありません。再推定は、予測よりも計算コストがかかります。


3

HMMの初期見積もりに関する資料の一部は、

ローレンス・R・ラビナー(1989年2月)。「隠れマルコフモデルと音声認識における選択されたアプリケーションに関するチュートリアル」。IEEE 77の議事録(2):257–286。doi:10.1109 / 5.18626(セクションVC)

また、Matlab / Octaveの確率的モデリングツールキット、特にhmmFitEm関数を見て、モデルの独自の初期パラメーターを提供するか、または( 'nrandomRestarts'オプション)を使用することもできます。「nrandomRestarts」を使用している間、最初のモデル(初期化ステップ)は以下を使用します。

  • 継続データのMLE / MAP(EMを使用)を介して混合ガウシアンを近似します。
  • 離散データのMLE / MAP(EMを使用)を介した離散分布の積の混合を近似します。

2番目、3番目のモデル...(初期化ステップで)はランダムに初期化されたパラメーターを使用し、結果として、より低い対数尤度値で収束が遅くなります。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.