タグ付けされた質問 「sift」


5
スケールおよび回転不変フィーチャ記述子
フィーチャ検出で使用するために、いくつかのスケールおよび回転不変フィーチャ記述子をリストできますか。 このアプリケーションは、マルチクラス分類器を使用して、UAVによってキャプチャされたビデオ内の車と人間を検出するためのものです。 これまでのところ、SIFTとMSER(アフィン不変)を見てきました。私もLESHを見ました、LESHはローカルエネルギーモデルに基づいていますが、回転不変ではない方法で計算され、ローカルエネルギーを利用して回転不変を構築する方法を考えようとしています機能記述子、私はここを読みます商用アプリケーションで使用できるSIFT / SURFの無料の代替手段は何ですか?、「関心点に方向を割り当て、それに応じて画像パッチを回転させると、回転不変性が無料で得られます」が、これがさらに当てはまるかどうか、またはこれを私の問題にどのように適用できるかわかりません感謝します、ありがとう

2
なぜガウス分布の違いは空間スケール不変ですか?
ここでは例として、スケール不変の特徴変換アルゴリズムを使用します。SIFTは、画像のスケーリングされたガウスフィルタリングに基づいてスケール空間を作成し、ガウスの差を計算して潜在的な関心点を検出します。これらの点は、ガウス分布の差全体の局所的な最小値と最大値として定義されます。 このアプローチは(他の不可解な不変性の中でも)スケール不変であると主張されています。どうしてこれなの?なぜそうなのかははっきりしていません。

3
ふるいは画像から特徴を抽出する良い方法ですか?
画像から特徴を抽出しようとしていますが、抽出したいポイントを取得できなかったため、画像がテンプレートと一致しません。 良い結果を得るために、SIFTを画像に適用する前に確認する必要があるチェックポイントはありますか?たとえば、テンプレート画像は次のとおりです。 ターゲット画像;

1
SIFT機能とSVMを使用した画像分類
SIFT / SURF / ORB機能とサポートベクターマシンを使用してバッグオブワードモデルを使用して画像分類を実行する方法を誰かが説明できることを望んでいますか? 現時点では、画像のSIFT特徴ベクトルを計算し、SVMを実装していますが、ワードバッグモデルを使用してSIFT特徴を「ベクトル量子化」し、ヒストグラムを作成する方法に関する文献を理解することは困難ですSVMのトレーニングとテストに使用できる固定サイズのベクトル。 トピックに関するチュートリアルや文献へのリンクは大歓迎です、ありがとう

3
満たされたガラス物体の検出
私はこの質問からstackoverflowでここに送信されました。質問が具体的すぎて、ここの方法ではない場合は失礼します:) タスクは、特定の液体が入っているガラスを見つけることです。写真を見せて、私が達成しようとしていることと、これまでに達成しようとしていたことを、写真の下の説明で説明しましょう。 写真:(写真とリンクを投稿するには、少なくとも10の評判が必要なようです。リンクはこれを行う必要があります:(そうでなければ、スタックオーバーフローの質問を見ることができます) 詳細な説明:opencvで特定の形状のガラスを検出するアルゴリズムを実装しようとしました(ガラスは異なるカメラショットの角度/距離によって変換される可能性があります)。他の形の他のグラスもあります。私が探しているガラスも、他の色を含むガラスと区別するために、いくつかの着色された液体で満たされます。 これまでのところ、私はSIFT特徴抽出機能を使用してグラスのいくつかの特徴を見つけ、それをグラスの中にある他の写真と照合することを試みました。 このアプローチは、ガラスが非常に特定の位置にあり、背景が学習画像に似ているような非常に特定の条件でのみ機能しました。問題はまた、ガラスが3Dオブジェクトであり、そこから特徴を抽出する方法がわからないことです(おそらく、異なる角度からの複数の写真がリンクされているのでしょうか?)。 今、私は他にどんなアプローチが使えるのか分かりません。私はこれについていくつかの手掛かりを見つけましたが(ここでは/programming/10168686/algorithm-improvement-for-coca-cola-can-shape-recognition#answer-10219338)、リンクが壊れているようです。 別の問題は、そのようなガラスのさまざまな「空のレベル」を検出することですが、ガラス自体を適切に見つけることさえできませんでした。 このタスクでのアプローチについての推奨事項は何ですか?ローカル3Dオブジェクトフィーチャーを見つけるには別の方法を使用する方が良いでしょうか?それとも、他のアプローチを完全に使用する方が良いでしょうか?複数の写真のセットからオブジェクトを「学習」するアルゴリズムについて聞いたことがありますが、実際にはこれを見たことがありません。 任意のアドバイスは本当にいただければ幸いです

1
SIFT記述子のストーリーの背後にあるストーリーは何ですか?
以下はLowe 2004の論文(http://www.cs.ubc.ca/~lowe/papers/ijcv04.pdf)からの抜粋です。 明らかなアプローチの1つは、キーポイント周辺のローカル画像強度を適切なスケールでサンプリングし、正規化された相関測定を使用してこれらを一致させることです。ただし、画像パッチの単純な相関は、アフィンまたは3D視点の変更や非剛体変形など、サンプルの位置ずれを引き起こす変更に非常に敏感です。Edelman、Intrator、およびPoggio(1997)により、より優れたアプローチが示されています。彼らの提案された表現は、特に一次視覚皮質の複雑なニューロンの生物学的視覚のモデルに基づいていました。これらの複雑なニューロンは、特定の方向と空間周波数での勾配に応答しますが、網膜上の勾配の位置は、正確に局所化されるのではなく、小さな受容野上をシフトすることができます。Edelman et al。これらの複雑なニューロンの機能は、さまざまな視点からの3Dオブジェクトのマッチングと認識を可能にすることであると仮定しました。 SIFT記述子を理解しようとしています。前の段階(キーポイント検出器)を理解しました。 なぜそのように実装されているのかわかりません。裏話を知りたい。
9 sift 
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.