タグ付けされた質問 「markov-chains」

2
マルコフ連鎖とは何ですか?
私は現在、マルコフチェーンの集中についていくつかの論文を読んでおり、マルコフチェーンと単純な有向加重グラフの違いを確認できません。 たとえば、記事「マルコフチェーンにおける最適な状態空間の集中」では、CTMC(連続時間マルコフチェーン)の次の定義を提供しています。 状態空間が有限CTMC を 遷移率行列 。(S,Q)(S,Q)(\mathcal{S}, Q)S={x1,x2,…,xn}S={x1,x2,…,xn}\mathcal{S} = \{x_1, x_2, \ldots, x_n\}Q:S×S→R+Q:S×S→R+Q: \mathcal{S} \times \mathcal{S} \to \mathbb{R}^+ 彼らはマルコフプロパティにまったく言及しておらず、実際、エッジの重みが確率を表す場合、確率はチェーンの現在の状態のみに依存し、パスを導くパスに依存しないため、マルコフプロパティは自明であると信じていますそれに。 他の記事では、一括性のリレーショナルプロパティについてマルコフチェーンが同様に定義されています。 マルコフ連鎖は、トリプレットとして表されます。 ここで、は有限状態セットであり、は、ある状態から別の状態に移行する確率を示す遷移確率行列であり、はシステムが特定の状態で開始する可能性を表す初期確率分布。MMM(S,P,π)(S,P,π)(S, P, \pi)SSSMMMPPPππ\pi 繰り返しになりますが、過去、未来、独立についての言及はありません。 3番目の論文Simple O(m logn)Time Markov Chain Lumpingがあります。そこでは、エッジの重みが確率であるとは述べられていないだけでなく、次のようにさえ述べています。 多くのアプリケーションでは、値は負ではありません。ただし、が意図的にとして選択され、通常は負になるアプリケーションも存在するため、この仮定は行いません。W(s,s′)W(s,s′)W(s, s')W(s,s)W(s,s)W(s, s)−W(s,S∖{s})−W(s,S∖{s})-W(s, S \setminus \{s\}) さらに、一括は、マルコフプロパティを維持しながら状態の数を減らす方法である必要があると述べられています(「同等の」状態をより大きな状態に集約することによって)。しかし、私にとっては、それは単に確率を合計しているように見え、集約された状態への/からの遷移の結果の可能性が範囲内であることを保証するものでもありません。一括処理は実際に何を保存しますか?[0,1][0,1][0,1] したがって、私が見る可能性は2つあります。 マルコフ連鎖が何であるか理解できなかった、または それらの論文でのマルコフ連鎖という用語の使用は偽物です 誰かが状況を明確にできますか? その用語を使用しているさまざまなコミュニティが実際にあるように見え、それらは大きく異なることを意味しています。これら3つの記事から、マルコフプロパティは取るに足らないか役に立たないかのように見えますが、別の種類の論文を見ると、基本的なように見えます。

2
問題がマルコフ特性を満たさないように思われる場合、HMMが音声認識に適しているのはなぜですか
私はHMMとそのアプリケーションについて学び、それらの使用法を理解しようとしています。私の知識は少しむらがあるので、私がしている誤った仮定を修正してください。私が不思議に思っている具体的な例は、音声検出にHMMを使用する場合です。これは、文献では一般的な例です。 基本的な方法は、着信音(処理後)を観測値として扱うことであり、実際に話されている単語はプロセスの隠れた状態です。ここにある隠し変数が独立していないことは明らかなようですが、Markovプロパティをどのように満たすかはわかりません。N番目の単語の確率は、N-1単語だけでなく、その前の多くの先行単語にも依存していると思います。 HMMは音声検出の問題を正しくモデリングするのに非常に優れているため、これは単純化の前提として単に無視されますか、それともプロセスの状態と非表示の変数が何であるかを明確に理解していませんか?同じ問題は、HMMが非常に普及している多くのアプリケーションやPOSタグ付けなどに当てはまるようです。
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.