タグ付けされた質問 「viterbi-algorithm」



1
隠れマルコフモデルの後方アルゴリズムについて説明する
私はViterbi and Forwardアルゴリズムを実装しましたが、不思議なことに、Backwardアルゴリズムがどのように機能するのか理解できません。直感的には、Forwardの伝播中に計算された値を使用して、Forwardと同じことを逆方向にのみ実行する必要があるように感じます。 私の直感は正しいですか? この時点で、私は多くのスライドとうんざりする数学表記を読みました。それは助けにはなりません。わかりやすい英語で、BackwardアルゴリズムとForwardアルゴリズムの違いを説明できるものが必要です。 バックワードアルゴリズムはどのように行われるのですか? 次の小さなHMMと、以下の「BB」シーケンスの転送アルゴリズムの結果を想定します。 START -> 1 H: 0.5 * 0.8 = 0.4 L: 0.5 * 0.6 = 0.3 1 -> 2 H: 0.4 * 0.2 * 0.8 + 0.3 * 0.6 * 0.8 = 0.208 L: 0.4 * 0.8 * 0.6 + 0.3 * 0.4 * …

2
隠れマルコフモデル(HMM)の排出確率値の計算
私はHMMを初めて使用し、まだ学習しています。私は現在、HMMを使用して品詞にタグを付けています。ビタビアルゴリズムを実装するには、遷移確率(a私、jai,j a_{i,j} \newcommand{\Count}{\text{Count}})と排出確率(b私(o )bi(o) b_i(o) )。 私は、教師あり学習法を使用してこれらの確率の値を生成しています。ここでは、文とそのタグ付けを行います。排出確率は次のように計算します。 b私(o )=カウント(i → o )カウント(i )bi(o)=Count(i→o)Count(i) b_i(o) = \frac{\Count(i \to o)}{\Count(i)} どこ カウント(i )Count(i)\Count(i) タグの回数です 私ii トレーニングセットで発生し、 カウント(i → o )Count(i→o)\Count(i \to o) 観察された単語が ooo タグにマッピング 私ii。 しかし、これを訓練された b私(o )bi(o)b_i(o) タグ付けの場合、指定された文に観察された変数があり、 b私bib_i。そのような場合、どのように値を推定しますかbibib_i そのインスタンスのために?
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.