車両のセグメンテーションと追跡


9

私はしばらくの間、UAVからキャプチャされたビデオで車両を検出および追跡するプロジェクトに取り組んでいます。現在、車両および背景画像から抽出されたローカルフィーチャの機能のバッグ表現でトレーニングされたSVMを使用しています。次に、スライディングウィンドウ検出アプローチを使用して、画像内の車両の位置を特定し、追跡します。問題は、このアプローチははるかに遅く、私の検出器は私が望むほど信頼性が高くないため、Imがかなりの数の誤検知を取得することです。

したがって、分類器を適用する前に検索スペースを減らすために、車をバックグラウンドからセグメント化しておおよその位置を見つけることを検討してきましたが、これをどのように行うかわからず、誰かが助けてくれることを望んでいましたか?

さらに、レイヤーを使用したモーションセグメンテーションについて読んでいます。オプティカルフローを使用してフローモデルでフレームをセグメント化しています。この方法の経験はありますか。この方法が当てはまるかどうかについて、何か意見があれば教えてください。私の問題。

更新:私はこの質問をスタックオーバーフローにも投稿しましたが、素晴らしい回答がありました。このアイデアはすでに実装されており、驚くほどうまく機能しており、この手法に加えてオプティカルフローを使用して調査しています。

以下は、サンプルビデオの2つのフレームです

フレーム0: ここに画像の説明を入力してください

フレーム5: ここに画像の説明を入力してください

回答:


6

残念ながら、オプティカルフローも難しい問題です;-)

さて、より建設的にするために、試してみる価値がある(またはこの特定のシーケンスで試された)いくつかのアルゴリズムを次に示します:

  • より良い結果を得るために、実際の問題を(サイズと向きで)より代表的な車両のデータベースで機能のバッグを再トレーニングします
  • 地面が平面であるという事実を使用して、パラメトリックオプティカルフローを実行したり(アフィンフローを検索)、シーケンスのフレーム間のアフィンレジストレーションを計算したりします。移動中の車両は、この支配的な動きから外れます
  • オプティカルフローアルゴリズムを使用してフローを計算し、オプティカルフローベクトルの分類/クラスター化を試みます(これはまだ広く問題となっています!)。使用する言語に応じて、OpenCVのオプティカルフローを使用できます。これは、TU GrazD。Sunのオプティカルフロー、または私のものです ;-)。ただし、フローのセグメント化は重要なタスクであり、おそらく2つのステップで行う必要があることに注意してください。グローバル(支配的)モーションエトシミュレーション、次に小さなモーション検出です。
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.