問題の説明に基づいて、HMM(生成モデル)とCRF(判別モデル)の両方が機能します。2つのアプローチの詳細については、この説明を参照してください。
生成アルゴリズムと判別アルゴリズムの違いは何ですか?
提案:アルゴリズムを選択する前に、MATLABプロットなどを使用して、数値データを注意深く検討することから始めます。情報が多次元の場合(たとえば、複数のセンサーからの力の値)、一部の次元(たとえば、センサーの読み取り)に有用な識別情報が含まれていない場合があります。この場合、主成分分析を使用してデータを圧縮し、トレーニングと分類の際によりコンパクトな機能を使用できるようにします。
さて、あなたの質問に関して:
違いは、HMMは複数の非表示の変数/状態でテクスチャクラスのそれぞれを表すことができるため、各接触の内部の時間的変化をキャプチャできることです。HMMは、データの「低レベル」(クラス内)ダイナミクスをより適切にモデル化していると言えます。たとえば、HMMを使用すると、各データ収集の3つの異なるフェーズを明示的にモデル化できます。(1)ロボットとオブジェクト間の接触の開始。(2)コンタクトの安定した部分。(3)接触と解放の終わり。これらのフェーズは、同じオブジェクトテクスチャであっても、時間の経過とともに異なる値を持つ可能性があり、分類結果を改善するためにそれらを分離することは理にかなっています。
一方、CRFは、データ分布の「高レベル」(クラス間)関係をキャプチャするのに適しています。これは、時空間変動が高い場合や、観測機能が非常に類似している場合に重要になることがあります。異なるクラスに属する2つのサンプル。
個人的にはHMMの方が使いやすいと思うので、それらから始めますが、走行距離は異なる場合があります。
さらに多くのカテゴリに分類することを決定し、各カテゴリ間の区別が非常に微妙である場合、その場合はどのような選択が適切でしょうか?
その場合、CRFはより堅牢な選択肢になります(上記を参照)。
テクスチャをこれらのカテゴリに分類するために必要なすべての情報を取得するには、force-dataで十分ですか?
特に高解像度カメラでキャプチャした場合に、視覚的特徴(オブジェクトの外観)を追加すると、オブジェクトに粗いテクスチャがあるかどうかを判断するのに役立ちます。