タグ付けされた質問 「hidden-markov-model」

隠れマルコフモデルは、隠れた(つまり、観測されていない)状態のマルコフプロセスであると想定されるモデリングシステムに使用されます。

11
マルコフ連鎖と隠れマルコフモデルを学習するためのリソース
マルコフ連鎖とHMMについて学ぶためのリソース(チュートリアル、教科書、ウェブキャストなど)を探しています。私の経歴は生物学者であり、現在バイオインフォマティクス関連のプロジェクトに携わっています。 また、マルコフモデルとHMMを十分に理解するために必要な数学的背景は何ですか? 私はグーグルを使って見回してきましたが、今のところ良い入門チュートリアルをまだ見つけていません。ここの誰かがよく知っていると思う。


3
隠れマルコフモデルと条件付きランダムフィールドの直感的な違い
HMM(Hidden Markov Models)は生成モデルであり、CRFは識別モデルであることを理解しています。また、CRF(条件付きランダムフィールド)がどのように設計され使用されているかも理解しています。私が理解していないのは、それらがHMMとどのように異なるかです。HMMの場合、前のノード、現在のノード、および遷移確率でのみ次の状態をモデル化できますが、CRFの場合はこれを実行でき、任意の数のノードを接続して依存関係を形成できますまたはコンテキスト?私はここで正しいですか?

1
隠れマルコフモデルと粒子フィルター(およびカルマンフィルター)の違い
ここに私の古い質問があります 隠れマルコフモデル(HMM)とパーティクルフィルター(PF)の違い(違いがある場合)を誰かが知っているかどうか、そして結果としてカルマンフィルター、またはどの状況でどのアルゴリズムを使用するかを尋ねたいと思います。私は学生で、プロジェクトをしなければなりませんが、最初にいくつかのことを理解する必要があります。 そのため、参考文献によれば、両方とも状態空間モデルであり、隠された(または潜在的または観察されていない)状態を含みます。ウィキペディア(Hidden_​​Markov_model)によると、「HMMでは、隠れ変数の状態空間は離散的ですが、観測自体は離散的(通常はカテゴリ分布から生成)または連続的(通常はガウス分布から)のいずれかです。隠れマルコフモデルは、連続状態空間を可能にするために一般化することもできます。そのようなモデルの例は、隠れ変数に対するマルコフ過程が線形動的システムであり、関連する変数間に線形関係があり、すべての隠れ変数と観測変数がガウス分布に従うモデルです。前述の線形動的システムなどの単純な場合、正確な推論は扱いやすい(この場合は、カルマンフィルターを使用)。ただし、一般に、連続的な潜在変数を持つHMMでの正確な推論は実行不可能であり、近似方法を使用する必要があります。」 しかし、私にとってこれは少しわかりにくいです...簡単な言葉で言えば、これは次のことを意味します(私が行ったより多くの研究にも基づいています): HMMでは、状態空間は離散または連続のいずれかです。また、観測自体は離散または連続のいずれかです。また、HMMは線形およびガウスまたは非ガウスの動的システムです。 PFでは、状態空間は離散または連続のいずれかです。また、観測自体は離散または連続のいずれかです。しかし、PFは非線形(および非ガウス?)動的システムです(その違いは違いますか?)。 カルマンフィルター(HMMと同じように見えます)は、線形およびガウスの動的システムがある場合に使用されます。 また、どのアルゴリズムを選択するかを知るには、これらはすべて同じように見えるので...また、PFは線形データ(たとえば、センサーKinectからの生データ)を持つことができると言う論文(英語ではない)を見つけました動きを認識する)、動的システムは非線形である場合があります。これは起こりますか?これは正しいです?どうやって? ジェスチャ認識では、研究者はHMMまたはPFのいずれかを使用できますが、各アルゴリズムを選択する理由を説明していません。これらのアルゴリズムを区別し、違いを理解し、最適なアルゴリズムを選択する方法を誰かが知っていますか? 私の質問が大きすぎる場合、または一部の部分が素朴な場合は申し訳ありませんが、説得力のある科学的な答えはどこにも見つかりませんでした。ご清聴ありがとうございました! ここに私の新しい質問があります(@conjugatepriorの助けによると) したがって、さらに読みながら、以前のコメントの一部を更新し、何が起こっているのかをもう少し理解したいと思います。 簡単に言えば、傘は動的ベイジアンネットワークであり、その下にHMMおよび状態空間のモデル(サブクラス)が含まれます(http://mlg.eng.cam.ac.uk/zoubin/papers/ijprai.pdf)。 さらに、2つのモデルの最初の違いは、HMMでは隠れた状態変数が離散的であり、観測値は離散的または連続的であるということです。PFでは、隠れ状態変数は連続的であり(実数値の隠れ状態ベクトル)、観測値はガウス分布を持ちます。 また、@ conjugatepriorによれば、各モデルには次の3つのタスクがあります:フィルタリング、平滑化、予測。フィルタリングでは、モデルHMMは離散隠れ状態変数にフォワードアルゴリズム法を使用し、状態空間は連続変数に使用し、線形動的システムはカルマンフィルターなどを使用します。 ただし、HMMを一般化して、連続状態空間を許可することもできます。 これらのHMMの拡張により、2つのモデルは概念的に同一であるように見えます(隠れマルコフモデルとマルコフ遷移モデルと状態空間モデルで述べられているように...?)。 私はもう少し正確な用語を使用していると思いますが、それでもすべてがぼやけています。誰でもHMMと状態空間モデルの違いは何ですか? 本当に自分のニーズに合った答えが見つからないからです。 もう一度ありがとう!

2
隠れマルコフモデルとマルコフ遷移モデルと状態空間モデル…?
修士論文では、血清学的状態によって定義される異なる状態間の遷移の統計モデルの開発に取り組んでいます。私の質問はより一般的/理論的であるため、今のところ、このコンテキストにあまり多くの詳細を説明しません。とにかく、私の直感では、隠れマルコフモデル(HMM)を使用する必要があります。モデルを作成するために必要な文献やその他の背景研究を経て遭遇する問題は、用語と、さまざまなタイプの隠れたプロセスモデル間の正確な違いに関する混乱です。私はそれらを区別するもの(今後の例)を非常に漠然としか認識していません。さらに、少なくとも私が文献で見たものから、このタイプのモデリングの周りに構築された非常に非標準的な語彙があるように思えます。 だから、私は人々が私のためにこれらの用語のいくつかを明確にするのを手伝ってくれることを望んでいた。いくつか質問がありますが、1つまたは2つの回答が満足のいくものになると、残りは結果として解き明かされると思います。これが長すぎないことを願っています。モデレーターがこれを複数の投稿に分割することを望んでいる場合、私はそうします。いずれにせよ、質問を太字で示し、続いて文献検索中に明らかにした質問の詳細を記載しました。 したがって、順不同で: 1)「非表示プロセスモデル」とは正確には何ですか? 私は、「隠されたプロセスモデル」はいくつかの異なるタイプの統計モデルを記述するために使用できる一種の包括的な用語であり、すべてが「オーバーラップのシステムによって生成された時系列データ潜在的に隠された線形加算プロセス」([1])。実際、[2]は「隠れたプロセスモデル」を「状態空間モデルまたは隠れマルコフモデルのいずれかを指す一般用語」として定義しています。[1]は、隠れマルコフモデルが、バイナリ状態の推論に特化した隠れプロセスモデルのサブタイプであると推測しているようです。基本的な意味は、隠れたプロセスモデルは隠れたマルコフモデルの一般化であると思われます。「隠れたプロセスモデル」と「 私のこの直感は正しいですか?そうでない場合、これらの方法をより明確に説明するリファレンスがありますか? 2)隠れマルコフモデルと状態空間モデルの違いは何ですか? 再び[2]に戻ります(紙自体が特に信頼できるように見えるためではなく、紙に明確な用語集が付いている場合だけです;それは一文の定義の便利な情報源にすぎません)、違いはそうです隠れマルコフモデルは、状態がマルコフである特定のタイプの状態空間モデルです(マルコフプロセスの順序に明確な制限はないようです。つまり、1次、...、k次)。ここで、状態空間モデルは、「2つの時系列を並行して実行するモデルであり、1つは真の状態(潜在)のダイナミクスをキャプチャし、もう1つはこれらの基礎となる可能性のある未知の状態から行われる観測で構成される」と定義されます。それらの状態がマルコフ特性も示す場合、それは隠れマルコフモデルです。 ただし、[3]は、状態空間モデルと隠れマルコフモデルの違いを、潜在状態の特性に関連するものとして定義しています。ここで、隠れマルコフモデルは離散状態を扱い、状態空間モデルは連続状態を扱います。それ以外の場合、概念的には同じです。 これらは非常に異なる2つの定義のように思えます。一方では、隠れマルコフモデルは状態空間モデルのサブタイプであり、他方では、両方とも、より広範なクラスの隠れプロセスモデルの異なるインスタンス化です。これらのうち正しいものはどれですか?私の直感では、[2]とは対照的に[3]に従うように指摘していますが、これをサポートする信頼できる情報源は見つかりません。 3)「マルコフ遷移モデル」とは何ですか? 多くのソースで出てきた別の用語は、「Markov遷移モデル」です。私はどの教科書にもこのフレーズを見つけることができませんでしたが、ジャーナルの記事には多く見られます(単に確認のためにGoogleに接続するだけです)。私はこの用語の厳密な定義を見つけることができませんでした(私が見つけたすべての論文は別の論文を引用し、他の論文を引用するなど、どこにも正気をもたらさないPubMedウサギの穴を送ります)。コンテキストからの私の印象は、推論の対象がマルコフ過程に従う状態間の遷移であるモデルを指す非常に一般的な用語であり、隠れマルコフモデルはマルコフ遷移モデルの特定のタイプと見なされる可能性があるということです。[4]しかし、遷移モデル、隠れマルコフモデル、およびいくつかの同様の用語を互換的に使用しているようです。 一方、[5]はマルコフ遷移モデルと隠れマルコフモデルについて少し異なった話をしています。著者は、「遷移モデルは、より複雑な隠れマルコフモデルからの結果を解釈するのに役立つ回答者のダイナミクスを要約する方法を提供します」と述べています。私はこのフレーズが何を意味するのか完全には理解しておらず、論文の他の場所でそれを正当化するものを見つけることができません。しかし、彼らはマルコフ遷移モデルは時間を連続変数として使用し、隠れマルコフモデルは時間を離散変数として使用することを暗示しているようです(彼らはこれを直接言わず、彼らはマルコフ遷移に適合するためにRパッケージ 'msm'を使用すると言います)モデル、および「msm」は、HMMのRパッケージとは対照的に、継続的に時間を処理するものとして説明されています)。 4)他の概念、たとえば動的ベイジアンネットワークはどこに収まりますか? ウィキペディアによると、動的ベイジアンネットワークは「隠れマルコフモデルとカルマンフィルターの一般化」です。他の場所では、「世界の全状態が単一の隠れ状態変数によって表される」動的ベイジアンネットワークの特別なケースとして定義された隠れマルコフモデルを見ました(動的ベイジアンシステムの定義とHMMとの関係?) 。私は一般にこの関係を理解し​​ており、[6]で十分に説明されています。 しかし、私はこの関係が物事のより広い視野にどのように適合するかを理解するのに苦労しています。つまり、HMMとDBNの間のこの関係を考えると、状態空間モデルと隠れたプロセスモデルはどのように2つに関連していますか?隠れマルコフモデルの複数の「一般化」があるように思われる場合、これらの異なるタイプの方法はすべてどのように相互に関係しますか? 参照: [1]トム・M・ミッチェル、レベッカ・ハッチンソン、インドラヤナ・ルスタンディ。「非表示プロセスモデル」。2006. CMU-CALD-05-116。カーネギーメロン大学。 [2]オリバー・ギミネス、ジャン・ドミニク・レブルトン、ジャン・ミシェル・ガイヤール、レミ・ショケ、ロジャー・プラデル。「隠れたプロセスの動的モデルを使用した人口統計パラメーターの推定」。理論人口生物学。2012. 82(4):307-316。 [3]バーバラエンゲルハルト。「隠れマルコフモデルと状態空間モデル」。STA561:確率的機械学習。デューク大学。http://www.genome.duke.edu/labs/engelhardt/courses/scribe/lec_09_25_2013.pdf [4] Jeroen K. Vermunt。「歩行気分評価データの分析への応用による連続時間でのマルチレベル潜在マルコフモデリング」。社会統計ワークショップ。2012.ティルブルフ大学。http://www.lse.ac.uk/statistics/events/SpecialEventsandConferences/LSE2013-Vermunt.pdf [5]ケン・リチャードソン、デビッド・ハート、クリスティー・カーター。「健康と労働力の移行を理解する:マルコフモデルをSoFIE縦断データに適用する」。公式統計調査シリーズ。2012年。 [6]ゾウビン・ガラマーニ。「隠れマルコフモデルとベイジアンネットワークの紹介」。Journal of Pattern Recognition and Artificial Intelligence。2001. 15(1):9-42。

4
隠れマルコフモデルのトレーニング、複数のトレーニングインスタンス
このチュートリアルに従って、個別のHMMを実装しました http://cs229.stanford.edu/section/cs229-hmm.pdf このチュートリアルと他のチュートリアルでは、観測シーケンスを指定したHMMのトレーニングについて常に説明しています。 複数のトレーニングシーケンスがある場合はどうなりますか?モデルを順番にトレーニングして、それらを順番に実行する必要がありますか? 別のオプションは、シーケンスを1つに連結してトレーニングすることですが、1つのシーケンスの終了から次のシーケンスの開始までの状態遷移がありますが、これは実在しません。


1
量的金融におけるHMMの使用。トレンド/ターニングポイントの検出に機能するHMMの例は?
「政権交代モデル」とも呼ばれる「隠れマルコフモデル」と呼ばれる素晴らしい世界を発見しています。RのHMMを適応させて、傾向と転換点を検出したいと思います。多くの価格でテストできるように、できるだけ一般的なモデルを作成したいと思います。 誰でも論文を推薦できますか?私はいくつかを見てきました(そして読んでいます)が、実装が簡単なシンプルなモデルを探しています。 また、どのRパッケージが推奨されますか?多くの人がHMMをやっていることがわかります。 「時系列の隠れマルコフモデル:Rを使用した導入」という本を購入しました。中身を見てみましょう;) フレッド

3
隠れマルコフモデルのしきい値処理
私はmfccおよび非表示のマルコフモデルを使用した音声認識のための概念実証システムを開発しました。既知の音でシステムをテストすると、有望な結果が得られます。システムは、未知の音が入力されると、最も近い一致で結果を返しますが、スコアは考案するのにそれほど明確ではありません。 私は、スピーチ用、水道の蛇口から出る水用、机の上でノックするための3つの隠れたマルコフモデルを訓練しました。それから、私はそれらを目に見えないデータでテストし、次の結果を得ます: input: speech HMM\knocking: -1213.8911146444477 HMM\speech: -617.8735676792728 HMM\watertap: -1504.4735097322673 So highest score speech which is correct input: watertap HMM\knocking: -3715.7246152783955 HMM\speech: -4302.67960438553 HMM\watertap: -1965.6149147201534 So highest score watertap which is correct input: knocking HMM\filler -806.7248912250212 HMM\knocking: -756.4428782636676 HMM\speech: -1201.686687761133 HMM\watertap: -3025.181144273698 So highest score knocking which is correct input: …

1
分類のためにHMMをトレーニングするにはどうすればよいですか?
したがって、分類のためにHMMをトレーニングするときの標準的なアプローチは次のとおりであることを理解しています。 データセットを各クラスのデータセットに分けます クラスごとに1つのHMMをトレーニングする テストセットで各モデルの尤度を比較して、各ウィンドウを分類します。 しかし、各クラスでHMMをトレーニングするにはどうすればよいですか?1つのクラスに関連するデータを連結するだけですか?しかし、時系列データはシーケンシャルであることを意味していませんか?そして、そうすると、いくつかのデータポイントが連続していないときに連続していると言いますか? より具体的には、96xTマトリックスであるEEGデータがあります。96個の特徴ベクトルは、異なるチャネルからの異なる周波数のパワースペクトル密度であり、Tは信号の時間の長さです(サンプリングレートで) これは、実験プロトコル(データにラベルが付けられている)からわかっているウィンドウに分割できるため、クラスごとに96 * tマトリックスのセットを収集できます。ここで、tはTより小さく、各ウィンドウのサイズを示します。 このデータでHMMをトレーニングするにはどうすればよいですか?pmtk3ツールキットを使用しようとしていますが、実際には何でも使用できます-パワースペクトル密度が離散的ではなく連続的であるため、実際の値の観測を処理できなければなりません(デフォルトのMATLABツールボックスは離散観測を使用)。 目的は、EEGデータウィンドウを、ラベル付けされたデータでトレーニングした特定の精神状態に分類できるようにすることです。これは、ベルリンのBCIコンペデータを使用したブレインコンピューターインターフェイスの問題です。

1
隠れマルコフモデルで「最適な」モデルを選択するための基準
データの潜在状態の数を推定するために、隠れマルコフモデル(HMM)を近似しようとする時系列データセットがあります。これを行うための私の擬似コードは次のとおりです。 for( i in 2 : max_number_of_states ){ ... calculate HMM with i states ... optimal_number_of_states = "model with smallest BIC" ... } さて、通常の回帰モデルでは、BICは最もpar約的なモデルを好む傾向がありますが、HMMの場合、それが何をしているのかわかりません。BIC基準がどのようなHMMの傾向があるのか​​を実際に知っている人はいますか?また、AICと尤度値も取得できます。州の真の総数を推測しようとしているので、これらの基準の1つは、この目的のために他の基準よりも「優れている」のでしょうか。

1
依存する観測のブートストラップを介した信頼区間の計算
標準形式のブートストラップを使用して、観測値がiidであれば、推定統計の信頼区間を計算できます。I. Visser et al。「隠れマルコフモデルパラメーターの信頼区間」のパラメトリックブートストラップを使用して、HMMパラメーターのCIを計算しました。ただし、観測シーケンスにHMMを近似する場合、観測値は依存関係にあると既に仮定しています(混合モデルとは対照的)。 2つの質問があります。 iidの仮定はブートストラップで何をしますか? パラメトリックブートストラップでiid要件を無視できますか? Visser et al。方法は簡単に次のとおりです。 我々は観測シーケンスがあるとしY=o1,o2,...,onY=o1,o2,...,onY=o_1,o_2,...,o_nパラメータの実際の未知のセットとHMMをサンプリングに起因θ=θ1,θ2,...,θlθ=θ1,θ2,...,θl\theta=\theta_1,\theta_2,...,\theta_l。 パラメータは、EMアルゴリズムを用いて推定することができるθ^=θ^1,θ^2,...,θ^lθ^=θ^1,θ^2,...,θ^l\hat{\theta}=\hat{\theta}_1,\hat{\theta}_2,...,\hat{\theta}_l 推定HMMを使用して、サイズブートストラップサンプルを生成しnnnますY∗=o∗1,o∗2,...,o∗nY∗=o1∗,o2∗,...,on∗Y^*=o^*_1,o^*_2,...,o^*_n ブートストラップサンプルに係るHMMのパラメータを推定するθ^∗=θ^∗1,θ^∗2,...,θ^∗lθ^∗=θ^1∗,θ^2∗,...,θ^l∗\hat{\theta}^*=\hat{\theta}^*_1,\hat{\theta}^*_2,...,\hat{\theta}^*_l ステップ3および4繰り返し時間(例えば、B = 1000)で得られたBのブートストラップ推定:θ *(1 )、θ *(2 )、。。。、θ *(B )BBBBBBBBBθ^∗(1),θ^∗(2),...,θ^∗(B)θ^∗(1),θ^∗(2),...,θ^∗(B)\hat{\theta}^*(1),\hat{\theta}^*(2),...,\hat{\theta}^*(B) 各推定されたパラメータのCI計算θ iのの分布使用してθを * 私は、ブートストラップ推定に。θ^iθ^i\hat{\theta}_iθ^∗iθ^i∗\hat{\theta}^*_i 注(私の調査結果): パーセンタイル方式を使用して、正しいカバレッジを得るためにCIを計算する必要があります(正常性は悪い仮定です)。 ブートストラップディストリビューションのバイアスを修正する必要があります。分布平均ことを意味θは、 * 私はにシフトする必要がありますθ Iθ^∗iθ^i∗\hat{\theta}^*_iθ^iθ^i\hat{\theta}_i


3
隠れマルコフモデルとリカレントニューラルネットワーク
それぞれに最適な順次入力問題はどれですか?入力の次元はどちらがより良い一致を決定しますか?「より長いメモリ」を必要とする問題はLSTM RNNに適していますが、周期的な入力パターン(株式市場、天気)の問題はHMMで簡単に解決できますか? 重複が多いようです。2つの間に微妙な違いが存在することに興味があります。

1
動的ベイジアンシステムの定義、およびHMMとの関係
ウィキペディアから 動的ベイジアンネットワーク(DBN)は、隣接するタイムステップで変数を相互に関連付けるベイジアンネットワークです。これは、Tの任意の時点で、変数の値は内部リグレッサと直前の値(時間T-1)から計算できると記載されているため、しばしば2タイムスライスBNと呼ばれます。DBNはロボット工学では一般的であり、幅広いデータマイニングアプリケーションの可能性を示しています。たとえば、音声認識、タンパク質配列決定、バイオインフォマティクスで使用されています。DBNは、隠れマルコフモデルおよびカルマンフィルターと同等のソリューションを生成することを示しています。 「直前の値(時間T-1)」がDBNの時間インデックスが常に離散的であることを意味するのかと思っていましたか? 「任意の時点Tで、変数の値は内部リグレッサから計算でき、直前の値(時間T-1)」は、DBNが離散時間マルコフプロセスであることを意味しますか? 私が正しく理解している場合、状態からの出力を同時に無視すると、HMMも離散時間マルコフプロセスになります。では、HMMとDBNは同じ概念なのでしょうか。しかし、ウィキペディアの別の記事に よると 隠れマルコフモデル(HMM)は、統計的マルコフモデルであり、モデル化されるシステムは、観測されていない(隠れた)状態のマルコフプロセスであると見なされます。HMMは、最も単純な動的ベイジアンネットワークと見なすことができます。 そして最初の記事からの別の引用があります: DBNは、隠れマルコフモデルおよびカルマンフィルターと同等のソリューションを生成することを示しています。 ありがとう!

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.