タグ付けされた質問 「image-processing」

一般に、画像処理は、写真やビデオフレームなどの入力が画像である信号処理の任意の形式です。

3
画像特徴の検出とマッチングの目的
私は画像処理とコンピュータービジョンの新人なので、この質問はあなたには馬鹿げているかもしれません。 Harris、Hessian、SIFT、SURFなど、いくつかの特徴検出および記述アルゴリズムを学びました。画像を処理してそれらのキーポイントを見つけ、それぞれの記述子を計算します。記述子は、特徴照合に使用されます。 私はSIFTとSURFを試してみましたが、2つの画像(1つは回転して少しアフィンされている)の場合、それらは機能によく一致せず、ほぼ100の特徴点のうち10マッチは良いです。 だから私は思う これらの特徴検出アルゴリズムを実際に何に使用できますか?特徴の検出とマッチングのためのより堅牢なアルゴリズムはありますか?または、SIFTとSURFは既に良好ですが、さらに使用するために調整する必要がありますか? もう1つの問題は、これらのアルゴリズムは(マルチコアの実装を考慮せずに)リアルタイムアプリケーションには適していないと思いましたが、リアルタイムで機能し応答する商用製品(Kinectなど)があることです。これらの製品も、見たものから機能を検出して照合すると思いますが、SIFTなどのアルゴリズムを使用していますか?どのようにして機能をうまく検出できるでしょうか? 知識が限られているため、2つの画像で同じオブジェクトを見つけたり、ホモグラフィを推定したりするために機能マッチングを使用できることはわかっていますが、機能マッチングの他の目的はありますか?

1
ヘッセ特徴検出器はどのように機能しますか?
私は、ハリスコーナー検出器について知って、私はその基本的な考え方を理解する二次モーメント行列を、 、エッジおよびその他の不安定なポイントはを介して削除できます。M=[I2xIxIyIxIyI2y]M=[Ix2IxIyIxIyIy2]M = \left[ \begin{array}{cc} I_x^2 & I_xI_y \\ I_xI_y & I_y^2 \end{array} \right]MMM ただし、ヘッセ行列検出器については、ヘッセ行列を使用してキーポイントを検出し、エッジを削除します。 H=[IxxIxyIxyIyy]H=[IxxIxyIxyIyy]\mathcal{H} = \left[ \begin{array}{cc} I_{xx} & I_{xy} \\ I_{xy} & I_{yy} \end{array} \right]、そしてHH\mathcal{H}エッジを削除して安定した点を検出する方法がわかりませんか?その背後にある直感的な基本的な考え方は何ですか?

1
画像処理とフーリエ変換
フーリエ変換が画像処理/コンピュータービジョンでどのように、そしてなぜ使用されるかを理解しようとしています。以下は私がこれまでに集めたものです。それに対する私の理解は正しいでしょうか?そうでない場合は、誰かに簡単でわかりやすい英語で説明してもらえますか?または、誰か追加するものはありますか?最後に重要なことですが、誰かが「離散フーリエ変換」を説明できますか? フーリエ変換は、画像をその正弦成分と余弦成分に分解します。簡単に言えば、サインとコサインはそれぞれ最小値と最大値で始まる波です。現実の世界では、観測する波が最大点と最小点のどちらから始まったのかわからないため、実際にはその2つを区別することはできません。したがって、サインとコサインは単に正弦波と呼ばれます。 FTを画像に適用するとき、それを空間ドメインから「周波数ドメイン」に変換します。これは、本質的に、時間の経過に伴う色と明るさの変化(時間ではなく空間です。ピクセル数を超えています)。 編集:なぜフーリエ変換を使用するのですか?そして、他の方法に比べてその利点は何ですか?たとえば、文学における1つのアプリケーションは、形状認識またはノイズ除去です。基本的に、FTを使用して形状認識を行うにはどうすればよいでしょうか。

1
OpenCV CannyとMatLab Cannyの違いは何ですか?
MatLab Canny(MLC)がOpenCV Canny(OCC)と比べて非常に異なる理由を誰かが知っていますか?ML-CはOCCよりも正確で接続されたエッジを提供しますが、それはどのようにして可能ですか?私が尋ねる理由は、MLコードのプロトタイプをC ++に実装する必要があり、OpenCVを使用したかったからです。私が試した限りでは、MLのコードをエクスポートすることは実際には不可能です。 敬具、

3
DCTとハードしきい値処理
画像があり、DCTを見つけて、係数にハードしきい値処理を適用してから、IDCTを適用すると、ノイズが減衰します。誰かが詳細に説明したり、なぜこれが機能するのかについての答えを私に指摘したりできますか?高周波をブロックするフィルターがノイズ除去で機能する理由を理解していますが(ノイズは高周波成分で構成されていると想定しているため)、振幅のしきい値処理が機能するのはなぜですか?

1
画像分割の決定ルール
しましょう YYY 測定された(ノイズの多い)画像であること Y= X+ n o i s eY=X+noiseY= X+ noise、 どこ バツXX 画像が含まれています 000(背景)と 200200200(オブジェクト)。真のピクセル値が000 または 200200200 画像を与えられた YYY。 ノイズは平均= 0、標準偏差=シグマのガウス I_true = [zeros(50,140);zeros(60,40),(ones(60,60)*200),zeros(60,40);zeros(50,140)]; [nrows ncolumns] = size(I_true); sigma = 63.246; gaussian_noise = sigma*randn(size(I_true)); I_noisy = I_true + gaussian_noise; ガウスノイズを実際の画像に追加した後、背景ピクセルの強度のPDFは平均=ガウスになります。 000 およびvariance = 63.2462263.2462263.2462^2 オブジェクトピクセルの強度のPDFは、平均値= 200200200 およびvariance = …

2
価値を維持した大津の二値化
大津二値化アルゴリズムの修正版を実装しようとしています。ドキュメントの画像を2値化しようとしています。しかし、2値化の手順では、オブジェクト(この場合はテキスト)が元のグレースケール値を保持し、背景が255の値をとるようにします。つまり、白です。論文で見つけたサンプル画像バージョンを投稿しています。 これは元の画像です: これは私が取得したい結果の画像です: 誰かがMatlabでそれを行う方法を教えてもらえますか?


1
ジグソーパズル:ピースを分離する(「スタック」ブロブを分離する)
私は画像処理の初心者で、足を濡らそうとしています。ジグソーパズルのピースの写真を撮りました。ピースを分離したいと思います。 私はこれを行うにはPython SimpleCVライブラリを使用していて、これまでのところ、私は使用してはかなりまともな結果を得ることができたfindBlobs()、hueDistance()とdrawMinRect()。これが私がこれまでに得たものです 正直、かなり良い。それが間違っている唯一の場所は、これらの2つのピースが中心の少し右に触れていることです。 画像を拡張してみましたが、問題が悪化しているようです。これらのblobを「縮小」して重複を排除するにはどうすればよいですか?

3
3D画像ラプラシアンの固有値と固有ベクトル
3D画像のラプラシアンの固有値と固有ベクトルを計算する必要があります。ボリュームヒートカーネルシグネチャを実装するために、3Dユニフォームグリッド(ボクセル化された画像によって生成されたユニフォーム構造)のヒートカーネルを評価しようとしています(「数値計算」セクションを参照してください)。私が取り組んでいるドメインは長方形ではないため、一部のグリッドポイントに1があり、他のポイントに0があり、バイナリ3Dシェイプを生成しています。私はこれについて2Dについて読んでいます。2Dでは、すべてのグリッドポイントのラプラシアンが計算され、結果の行列の固有値と固有ベクトルが計算されます。3Dでこれを行うにはどうすればよいですか?具体的な質問は次のとおりです。 (3x3x3)離散ラプラス演算子を適用した後に取得した3D画像から行列を取得するにはどうすればよいですか? 行列を取得する方法がない場合は、3D構造グリッドの固有値と固有ベクトルを計算する必要があります。これを行う最も簡単な方法は何ですか?これを行うためのソフトをお勧めできますか? ヒントをいただければ幸いです。 前もって感謝します。



3
フィルターのタイプと帯域幅の決定
次のような方程式として与えられた場合、フィルターが与えられます。 f(x 、y)= (∂2∂バツ2+∂2∂y2) exp( −バツ2+y2σ2)f(バツ、y)=(∂2∂バツ2+∂2∂y2)exp⁡(−バツ2+y2σ2)f(x,y) = \left(\frac{\partial^2}{\partial x^2} + \frac{\partial^2}{\partial y^2}\right) \exp\left(-\frac{x^2 + y^2}{\sigma^2}\right) またはカーネル内のような: 私はどのくらいの缶フィルターについて調べます。具体的には、それがハイパス/ローパス/バンドパスフィルターであるかどうかを確認できます(そうであればどうですか?)、フィルターの帯域幅を確認できますか?⎡⎣⎢0101− 41010⎤⎦⎥[0101−41010] \left[\begin{array}{rrr} 0 & 1 & 0 \\ 1 & -4 & 1 \\ 0 & 1 & 0 \end{array}\right] それが役立つ場合、コンテキストは画像処理です。 ありがとう

3
画像からのおもちゃのヘリコプターの向きの決定
私は、WebカメラといくつかのIR LEDを備えたArduinoを使用して、おもちゃのIRリモコンヘリコプター(Syma s107など)の自律制御システムの開発に取り組んでいます。約2 GHzで実行されているラップトップでOpenCVを使用してC ++を使用しています。システムをできるだけリアルタイムに近づける必要があります。 2D画像でヘリコプターの回転を効果的に決定する方法がわかりません(より正確には、カメラの画像平面に対するヘリコプターのヨー)。この情報は、ヘリコプターを画面内で安定させるために重要です。 私は検討し、少なくとも部分的に胴体と尾の位置を決定し、ジオメトリとパースペクティブのいくつかのトリックを使用して形状の推定を得ましたが、十分に低いノイズで尾と胴体を正確に見つけることは困難であることが判明しました。ヘリコプターの特定の場所にある種のカラーマーカーを使用することも検討しましたが、ほぼ左とほぼ右よりも正確な見積もりを取得する方法がわかりません。

2
循環および線形たたみ込み
循環たたみ込みと線形たたみ込みの違いは何ですか?いつどちらを選ぶか?フィルターをマスク付きの画像に適用する画像処理で、どのタイプのコンボリューションを選択する必要がありますか?

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.