タグ付けされた質問 「visual-tracking」

2
視覚追跡および平面マーカーの段階的なカメラポーズ推定
私は拡張現実のカメラポーズ推定と視覚追跡アプリケーションのトピックにしばらく取り組んでおり、タスクに関する詳細な情報はたくさんありますが、依然として多くの混乱と誤解があると思います。 次の質問は、段階的な詳細な回答に値すると思います。 カメラの組み込み機能とは何ですか? カメラ外部機能とは何ですか? 平面マーカーからホモグラフィを計算するにはどうすればよいですか? ホモグラフィを使用している場合、カメラポーズを取得するにはどうすればよいですか?

1
車両のセグメンテーションと追跡
私はしばらくの間、UAVからキャプチャされたビデオで車両を検出および追跡するプロジェクトに取り組んでいます。現在、車両および背景画像から抽出されたローカルフィーチャの機能のバッグ表現でトレーニングされたSVMを使用しています。次に、スライディングウィンドウ検出アプローチを使用して、画像内の車両の位置を特定し、追跡します。問題は、このアプローチははるかに遅く、私の検出器は私が望むほど信頼性が高くないため、Imがかなりの数の誤検知を取得することです。 したがって、分類器を適用する前に検索スペースを減らすために、車をバックグラウンドからセグメント化しておおよその位置を見つけることを検討してきましたが、これをどのように行うかわからず、誰かが助けてくれることを望んでいましたか? さらに、レイヤーを使用したモーションセグメンテーションについて読んでいます。オプティカルフローを使用してフローモデルでフレームをセグメント化しています。この方法の経験はありますか。この方法が当てはまるかどうかについて、何か意見があれば教えてください。私の問題。 更新:私はこの質問をスタックオーバーフローにも投稿しましたが、素晴らしい回答がありました。このアイデアはすでに実装されており、驚くほどうまく機能しており、この手法に加えてオプティカルフローを使用して調査しています。 以下は、サンプルビデオの2つのフレームです フレーム0: フレーム5:

3
画像特徴の検出とマッチングの目的
私は画像処理とコンピュータービジョンの新人なので、この質問はあなたには馬鹿げているかもしれません。 Harris、Hessian、SIFT、SURFなど、いくつかの特徴検出および記述アルゴリズムを学びました。画像を処理してそれらのキーポイントを見つけ、それぞれの記述子を計算します。記述子は、特徴照合に使用されます。 私はSIFTとSURFを試してみましたが、2つの画像(1つは回転して少しアフィンされている)の場合、それらは機能によく一致せず、ほぼ100の特徴点のうち10マッチは良いです。 だから私は思う これらの特徴検出アルゴリズムを実際に何に使用できますか?特徴の検出とマッチングのためのより堅牢なアルゴリズムはありますか?または、SIFTとSURFは既に良好ですが、さらに使用するために調整する必要がありますか? もう1つの問題は、これらのアルゴリズムは(マルチコアの実装を考慮せずに)リアルタイムアプリケーションには適していないと思いましたが、リアルタイムで機能し応答する商用製品(Kinectなど)があることです。これらの製品も、見たものから機能を検出して照合すると思いますが、SIFTなどのアルゴリズムを使用していますか?どのようにして機能をうまく検出できるでしょうか? 知識が限られているため、2つの画像で同じオブジェクトを見つけたり、ホモグラフィを推定したりするために機能マッチングを使用できることはわかっていますが、機能マッチングの他の目的はありますか?
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.