イベント予測のための隠れマルコフモデル


9

質問隠しマルコフモデルの賢明な実装の下の設定ですか?

108,000観測データセット(100日間で取得)と2000、観測期間全体にわたるおおよそのイベントがあります。観測された変数が3つの離散的な値とることができる場所下図のようなデータルックスと赤の列は、イベント時間を強調表示、すなわちトンEさん:[1,2,3]tE

ここに画像の説明を入力してください

tEtE5

HMMトレーニング:私がすることを計画し訓練 Pgの上で示唆したように、複数の観測系列の方法論を使用して、すべての「プレイベントの窓」に基づき、隠れマルコフモデル(HMM)を。ラビナーの論文の 273 。うまくいけば、これにより、イベントにつながるシーケンスパターンをキャプチャするHMMをトレーニングできます。

log[P(Observations|HMM)]Observationstt5

log[P(Observations|HMM)]Observations


データを分割してモデル(たとえば0.7)を構築し、残りのデータでモデルをテストできます。ただの考えですが、私はこの分野の専門家ではありません。
フェルナンド

はい、ありがとうございます。それは、私がよくわからないタスクに対するHMMの適合性です。
Zhubarb 2013年

@Zhubarb私は同様の問題を扱っており、あなたのHMMアプローチに従いたいと思います。これをどこで成功させましたか?または、最終的にロジスティック回帰/ SVMなどに再発しましたか?
Javierfdr 2016年

@Javierfdr、実装の難しさとアルトが彼の答えで強調している懸念のため、結局実装しませんでした。本質的に、HMMには広範な生成モデルを構築する必要があるという負担が伴いますが、私の直感は今のところ問題になっていますが、あなたが提案するように、差別モデル(SVM、ニューラルネットなど)で簡単に回避できます。 。
Zhubarb

回答:


3

P(O)P(O)O

P(HHM1|O)=P(O|HMM1)P(HMM1)P(O)P(O|HMM1)P(HMM1)
P(HMM1|O)>P(HMM2|O)P(HMM1)P(O|HMM1)P(O)>P(HMM2)P(O|HMM2)P(O)P(HMM1)P(O|HMM1)>P(HMM2)P(O|HMM2).

免責事項:以下は私の個人的な経験に基づいていますので、それを理解してください。HMMの優れた点の1つは、可変長シーケンスと可変順序効果(非表示状態のおかげ)を処理できることです。これが必要な場合があります(多くのNLPアプリケーションなど)。ただし、関心のあるイベントの予測に関連するのは最後の5つの観測のみであるというアプリオリな仮定があるようです。この仮定が現実的である場合、従来の手法(ロジスティック回帰、単純ベイズ、SVMなど)を使用して、最後の5つの観測値を特徴/独立変数として使用するだけで、はるかに幸運が高まる可能性があります。通常、これらのタイプのモデルはトレーニングが容易であり、(私の経験では)より良い結果を生成します。


p=log(P(O|hmm))p1=2504,p2=2403,p3=2450p:ウィンドウサイズとして任意に5を選択しました。実際の実装よりも長くなる可能性があります。
Zhubarb 2013年

1
P(HMM1)

@Berkanウィンドウサイズについては、私自身の個人的な経験に基づいて、この問題で私が言ったことは、任意の固定ウィンドウサイズに当てはまると思います。明らかに、私が言ったことはすべて、特定の問題について経験的にテストする必要があります。
alto

log(P(HMM1))+log(P(O|HMM1))>?log(P(HMM2))+log(P(O|HMM2))log(P(HMM1))log(P(HMM1))

log(P(HMM1))+log(P(O|HMM1))>?log(P(HMM2))+log(P(O|HMM2))log(P(HMM1))HMM1=(52,000)/108,000
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.