私は最大エントロピーマルコフモデル(MEMM)の概念に興味をそそられ、品詞(POS)タガーにそれを使用することを考えています。現在、私は従来の最大エントロピー(ME)分類器を使用して、個々の単語にタグを付けています。これは、前の2つのタグを含む多くの機能を使用します。
MEMMは、ビタビアルゴリズムを使用してマルコフチェーンを通る最適なパスを見つけます(つまり、各単語の個々の最適値ではなく、文のタグの完全な最適セットを見つけます)。それについて読むと、これは素晴らしい優雅さとシンプルさを持っているようです。ただし、各ステージは前のステージの「結果」にのみ依存しています(つまり、マルコフチェーンに従って)。
ただし、私のMEモデルでは、前の2つの段階(つまり、前の2つの単語のタグ)を使用しています。私には2つの可能なアプローチがあるようです:
従来のビタビ実装と同様に、1つ(前の)ステージに従って保存されたパスのセットを使用します。私のME分類器は、これとその前の「凍結」ステージ(検討中のパスに凍結)を使用して伝達関数を生成します。
または、2つのステージを追跡するアルゴリズムを記述します。これはより複雑であり、各伝達関数(つまり、MEモデルからの)は1つのステージではなく、前の2つのステージに依存するため、真のマルコフモデルではなくなります。
2つ目はより複雑になりますが、2つ目はより正確になります。
私は、文献検索でこれの例をまだ見つけていません。試されましたか?2段階のアプローチにより、全体的な精度が向上しましたか?