HMM、粒子フィルター、およびカルマンフィルターは、動的ベイズネットワークの特殊なケースであることを読みました。ただし、HMMのみを知っているため、ダイナミックベイズネットワークとの違いはわかりません。
誰か説明してもらえますか?
あなたの答えが次のようになりますが、ベイズネットワークの場合はいいでしょう:
隠れマルコフモデル
隠れマルコフモデル(HMM)は、5タプルのです。
- :状態のセット(例:「音素の始まり」、「音素の中間」、「音素の終わり」)
- :考えられる一連の観測(オーディオ信号)
- :状態から状態に到達する確率を与える確率行列。i j
- :確率を与えて状態の観測値を取得する確率行列。k l
- :いずれかの状態で開始する初期分布。
通常、有向グラフとして表示されます。各ノードは1つの状態対応し、遷移確率はエッジに示されます。
非表示のマルコフモデルは、現在の状態が非表示であるため、「非表示」と呼ばれます。アルゴリズムは、観測とモデル自体から推測する必要があります。次の状態では現在の状態のみが重要であるため、「Markov」と呼ばれます。
HMMの場合、固定トポロジ(状態の数、可能なエッジ)を指定します。次に、3つの可能なタスクがあります
- 評価:HMM与えられた観測値を取得する可能性はどれくらいか(フォワードアルゴリズム)O 1、... 、O トン
- デコード:HMMおよび観測与えられると、状態の最も可能性の高いシーケンスは何(ビタビアルゴリズム)O 1、... 、O T S 1、... 、S T
- 学習:学習します:Baum-Welchアルゴリズム。これは、期待値最大化の特殊なケースです。
ベイズネットワーク
ベイズネットワークは、有向非巡回グラフ(DAG)です。ノードは、ランダム変数表します。すべてのために、の両親に条件付けされた確率分布が存在する:X ∈ X X X
次の2つのタスクがあるようです(明確にしてください)。
- 推論:いくつかの変数が与えられた場合、他の変数の最も可能性の高い値を取得します。正確な推論はNP困難です。おおよそ、MCMCを使用できます。
学習:これらの分布を学習する方法は、正確な問題(ソース)に依存します。
- 既知の構造、完全に観測可能:最尤推定(MLE)
- 既知の構造、部分的に観測可能:期待値最大化(EM)またはマルコフ連鎖モンテカルロ(MCMC)
- 未知の構造、完全に観察可能:モデル空間を検索
- 未知の構造、部分的に観測可能:EM +モデル空間全体の検索
ダイナミックベイズネットワーク
動的ベイズネットワーク(DBN)も確率的グラフィカルモデルであると思います。変動性は、時間とともに変化するネットワークに起因するようです。ただし、これは同じネットワークをコピーし、時刻すべてのノードを時刻対応するすべてのノードに接続することと同等であるように思えます。そうですか?t + 1