タグ付けされた質問 「edge-detection」

エッジ検出は、画像の明るさが急激に変化する画像内のポイントを識別するプロセスです。

5
エッジ検出アルゴリズムを選択する際に考慮すべき要素は何ですか?
Sobel、Laplacian、Cannyメソッドなどのアルゴリズムを含む、多くのエッジ検出アルゴリズムについて学びました。私には最も人気のあるエッジ検出器はキャニーエッジ検出器であるようですが、これが使用するのに最適なアルゴリズムではない場合はありますか?使用するアルゴリズムを決定するにはどうすればよいですか?ありがとう!

4
エッジが互いに接触しているときに、個別のオブジェクトを検出するにはどうすればよいですか?
この質問は、Signal Processing Stack Exchangeで回答できるため、Stack Overflowから移行されました。 8年前に移行され ました。 カメラから取得した画像内のすべての輪郭を見つける必要があります。そこで、まずエッジ検出器を使用してエッジを見つけ、次に輪郭を見つけます。ものすごく単純。 しかし、私の輪郭は「マージ」されます。たとえば、下の画像では、明らかに4つの異なるオブジェクトがあります。ただし、エッジはいくつかのポイントでわずかに接触しているため、4つの別々の輪郭ではなく、1つの大きな輪郭を取得します。しきい値、侵食、モルフォロジー操作などを変更してみましたが、エッジが少し触れたままです。下の画像に似た画像で別々の輪郭を取得する方法について誰か提案はありますか?(以下の画像は明らかに単なる例であり、実際の画像ははるかに複雑ですが、基本的な問題は同じです)。

3
高次フィルターのカスケードバイカッドセクションはどのように機能しますか?
私は8次のIIRフィルターを実装しようとしていますが、これまで読んだすべてのアプリケーションノートと教科書には、2次のセクションとして2を超える次数のフィルターを実装するのが最善であると書かれています。tf2sosMATLABで2次セクションの係数を取得するために使用しましたが、予想どおり、4 2次セクションの6x4係数が得られました。SOSとして実装する前は、8次フィルターには7つの以前のサンプル値を保存する必要がありました(および出力値も)。ここで、2次セクションとして実装するとき、フローが入力から出力までどのように機能するか、2つの前のサンプル値のみを保存する必要がありますか?または、最初のフィルターの出力はx_in2番目のフィルターのように送られますか?
20 filters  filter-design  infinite-impulse-response  biquad  audio  image-processing  distance-metrics  algorithms  interpolation  audio  hardware  performance  sampling  computer-vision  dsp-core  music  frequency-spectrum  matlab  power-spectral-density  filter-design  ica  source-separation  fourier-transform  fourier-transform  sampling  bandpass  audio  algorithms  edge-detection  filters  computer-vision  stereo-vision  filters  finite-impulse-response  infinite-impulse-response  image-processing  blur  impulse-response  state-space  linear-systems  dft  floating-point  software-implementation  oscillator  matched-filter  digital-communications  digital-communications  deconvolution  continuous-signals  discrete-signals  transfer-function  image-processing  computer-vision  3d 

4
Canny Edge Detectorの制限は何ですか?
エッジ検出アルゴリズムおよびエッジ検出を使用するアプリケーションに関する文献の大部分は、キャニーのエッジ検出器を参照しています。エッジ検出のほぼ「解決策」のように見えるほどです。確かに、ノイズのバランスを取り、エッジを保存するのに最適です。 しかし、単純な好奇心として、Cannyのエッジ検出器に関心のある領域はありますか?または、Cannyが最適ではないアプリケーションの領域はありますか? これに関連して、実装の高速化はそれほど重要ではありません。エッジ検出器の良し悪しは、生成されるエッジの品質と有用性に焦点を当てる必要があります。 また、私は実際に実装固有の問題に焦点を合わせていません。アルゴリズムに固有のより理論的な制限または特性を探しています。

6
さまざまな素材の画像セグメンテーションの問題
こんにちはCV /パターン認識コミュニティ、 画像のセグメンテーションに関して深刻な問題があります。シナリオは、私の頭を狂わせる炉内の雰囲気です。また、1つの特殊なケースだけでなく、さまざまな材料(ガラス、セラミック、Al、Irなど)のオブジェクトの輪郭を短時間(10秒未満)で検出する必要があります。また、コードのピクセルの連続した行に輪郭が必要です。したがって、チェーンコードまたはいわゆるボーダー/輪郭追跡も必要であるため、オープンホールは適切ではありません。バックグラウンドには、ほこり、粒子などの非線形ノイズが時々現れます。 MatlabまたはOpenCVの提案を歓迎します。 より明確にするために、目標と半透明のオブジェクトの別の画像を投稿しましたが、これも検出する必要があります。また、知っておく必要があるさらなる例。 画像#1を見るとわかるように、画像の右側の部分と、オブジェクトである星の外側の輪郭の近くに粒子があります。また、全体的なコントラストはあまり良くありません。オブジェクト自体は地下にあり、輪郭検出には関係ありません。画像#2は半透明のオブジェクトを示していますが、これも可能です。 次の画面(赤い線)のように、そのオブジェクトの輪郭/境界を見つけたい。2つの長方形(黄色)は、開始点(左)と終了点(右)を示しています。青い線は無視できます。 最初は、フィルターだけでその不潔な雰囲気の問題を解決できると思いました。しかし、多大な時間を費やした後、前景と背景のコントラストを高めるためにノイズを大幅に除去または削減する必要があることに気付きました。ヒストグラム等化、大津適応等化、線形フィルター(ガウスなど)、非線形フィルター(中央値、拡散)、Active Contours、k-Means、Fuzzy-c-means、純粋なCannyなど、多くの方法を試しました。形態学的演算子と組み合わせたエッジ検出。 キャニー:粒子と大気が穴の原因になっていますが、オブジェクトの完全な輪郭が必要です。モルフォロジー演算子を閉じて拡張しても、それだけでは十分ではありません。Cannyには、ヒステリシスがあるため、私が研究したすべての方法の中で最高の結果が残っています。 アクティブな輪郭:エッジ/グラデーションでも機能します。オブジェクト内で初期化した後、完全に狂ったように動作します。これは、エッジマップが「開いた」オブジェクトになっていることが原因である可能性があります。私の知る限り、輪郭を閉じなければなりません。さまざまな派生物(GVF / VFC / Classic Snake)で試してみました。 k-Means:霧の背景のため、結果には炉の雰囲気が含まれます。ファジーc-meansについても同じです。オブジェクトを背景から分離するため、2つのクラスターを選択しました。クラスターが多いと、結果が弱くなります。 ヒストグラム/大津:グレーの強度が非常に近いため(imho!)、オブジェクトと背景をマージしています。ローカルおよびグローバルな方法で試してみました。 フィルター:特にGLPFまたは他のLPFがエッジを塗りつぶしますが、これはあまり良くなく、霧の雰囲気さえも低減しません。 非線形フィルターはエッジを保持しています。それらのほとんどは、大きな画像の計算に時間がかかりすぎます。とりあえず、高速の双方向フィルタを使用しました。結果は以下を参照してください。 したがって、得られたオブジェクトセグメントの結果は既存のアルゴリズムと十分に競合しないため、後処理ステップには単一の方法では十分ではありません。既存のアルゴリズムは非常にローカルであるため、この非常に特殊なシナリオで機能します。 何かを完全に見逃してしまった場合、どうすればいいかわかりません。隙間や穴を開けずに、どのように処理し、どのように良好な輪郭結果を得る必要があるのか​​分かりません。 CCDと物理的環境?前もって感謝します! これまでの最後のアプローチ(MOでの長い実験の後): バイラテラルフィルター(エッジを保持しますが、均一な領域を平滑化します) キャニー(シグマ= 2、しきい値= [0.04 0.08]) 形態学的オペレーション(MO): 、 bwareopen、&closingremovebridge bwlabel輪郭の周囲のみを選択し、不要なノイズを除去します。まだスクリーンショットは更新されていませんが、スターには有効です。ガラスには外側の輪郭に接続された内側の輪郭があります。これは下のスクリーンショットでも確認できます。 そのため、外側の輪郭を横断するための特別なアルゴリズムが必要なのではないかと心配しています。近隣の時計回り/反時計回りの検索になります。コーナーポイントがある場合、その時計回り/反時計回りのステップを切り替えることができます。隙間がある場合は、半径を増やしてもう一度見てください。次のポイントが2つ以上ある場合は、前と同じ方向を向いたポイントを選択します。その輪郭追従アルゴリズムは理にかなっていると思いますか?

2
エッジ検出器によって検出されたエッジの接続
キャニーエッジ検出器から取得したバイナリイメージがあります。エッジは中央でうまく検出されないので、それらを結合する必要があります。エッジの接続は方向と近傍に依存します。しきい値(5ピクセル未満の距離など)を下回る場合は、頂点を接続する必要があります。私のほぼ線形の特徴がうまく方向付けられている場合、このしきい値を緩和する必要があります。(これが最良のケースです。) ハフ変換を試してみましたが、直線がないのでうまくいきませんでした。膨張と収縮も良くありません。彼らは画像をより面倒にします。 私が試みているアプローチは、最初に頂点とノードを検出し(MATLABでbwmorph)、その後、別の機能として葉を作成します。これは次のように行われます。 3x3ウィンドウでスキャンし、隣人を探します。 接続されたオブジェクト全体をトラバースします。 線(または2次多項式)を近似しようとします。 接続する価値があるかどうかは、機能ごとに確認してください。 頂点を接続する必要がある意思決定の部分は難しいため、実装は簡単ではありません。

1
2D点群における円(楕円)の検出
すなわちポイント(2D)のセットを考えると、点群(PC)は、質問はについてですrobust、accurateそしてcomputing-friendlyこの方法は、(高度なバージョンまたは楕円)の円を見つけること。 直感的なアイデアは、可能な限りすべてのポイント(中心として){無限!}および半径(再び無限!)でブルートフォース検索を使用することです。これは非常に遅く、非効率的です。 以下に示すように、各適合円はnn、しきい値より短い距離で円周上に配置されたポイントの数()に基づいてランク付けされます(t)。したがってderr、平均距離を提示する必要があります。 高度な形式では、楕円が適合します。 アイデア、ブレインストーミング、経験、コメントはありますか?

1
ノイズでのトーンバーストの開始時間の推定
ノイズの多い信号で正弦波トーンバーストの開始時間を推定するために、どのような手法を使用できますか? トーンバーストは既知の固定周波数(ただし未知の位相)と非常に鋭い立ち上がり時間を持ち、目標は立ち上がり時間の半分、および/またはトーンの周波数の1周期以内で開始時間を推定することです、 可能なら。S / N比が非常に低い(1未満)場合、推定手法はどのように変化しますか? 追加:トーンバーストの長さは不明ですが、立ち上がり時間と周波数周期の小さな倍数よりも長いと仮定します。 追加:DFT / FFTは、トーンの存在の可能性が非常に高いことを示しています。問題は、FFTウィンドウ内のトーン(またはおそらく同じ周波数の複数のトーンバースト)がFFTウィンドウ内で開始した場所を正確に把握すること、または現在のトーンがそのDFTウィンドウ外で開始したかどうかを判断することです。追加の時間領域データ。 レーダーパルスの検出精度は、トーンの長さが不明であり、既知の立ち上がり時間以外は変調されていないため、エッジのみがあることを除いて、必要な解像度に近くなります。狭帯域パスフィルターは立ち上がり時間を歪め、したがってエッジ到着推定の解像度を低下させます。

2
ラベルを貼る正しい場所を特定する
以下の画像では、というラベルの付い[0,1,2,3]た4つのクラスターを特定した2Dデータセットがあります。各形状に対してラベルを自然な方法で配置するアルゴリズムを探しています。私の最初の推測は、それらを以下に示すクラスターの「重心」に配置することでした。連続したクラスターの場合、これは正常に機能します。0ただし、クラスターのような形をとるクラスターの場合、アプローチは失敗します。凡例を使用せずに、この画像にラベルを配置するより良い方法は何でしょうか? * ここでの自然はある程度主観的ですが、ラベルのポイントは、視聴者がxy平面内の特定の領域を数値に関連付けるのを助けることです。

3
周波数領域でエッジ検出を実行できますか?
フーリエ領域でエッジ検出アルゴリズムを実装するために、画像のFFTの高周波成分が一般にエッジに対応するという事実を利用できますか?ハイパスフィルターに画像のFFTを掛けてみました。結果の画像はエッジに対応していましたが、畳み込み行列を使用して確立されたエッジ検出ではありませんでした。では、フーリエドメインでエッジ検出を行う方法はありますか、それともまったく不可能ですか?

4
畳み込みはどのように行列乗算(行列形式)として表現できますか?
この質問はプログラミングにはあまり関係がないかもしれませんが、画像処理の背後にある理論を理解しなければ、実際に何かを実装することはできません。 ガウスフィルターは、ピクセルの近傍の加重平均を計算し、エッジ検出に非常に役立ちます。これは、ぼかしを適用して画像を同時に導出できるためです。単にガウス関数の導関数とたたみ込みます。 しかし、誰かが私を説明したり、それらがどのように計算されたかについていくつかの参照を私に与えたりできますか? たとえば、Cannyのエッジ検出器は5x5ガウスフィルターについて話しますが、それらはどのようにしてこれらの特定の数値を取得しましたか?そして、それらはどのようにして、継続的な畳み込みから行列の乗算に移行しましたか?

1
キャニーエッジ検出器のさまざまなパラメーターの影響を説明できますか?
Cannyエッジ検出器に関する最後の2つの質問 キャニーエッジ検出器の制限は何ですか? そして 葉の静脈を分割する最良の方法? アルゴリズムの基本的な概要は次のとおりです。 a。ガウスたたみ込みを適用します。(ここで作成する選択) b。2D導関数を適用する c。ヒステリシス下限および上限T0およびT1(ここでT 0およびT 1の選択を選択)を使用して、このエッジの隆起を追跡し、しきい値処理(エッジにないピクセルをゼロに設定)します。 σσ\sigmaT0T0T0T1T1T1 詳細については、こちらをお読みください。 一方、キャニーは最適であると主張されています。実際的な結果が重要な場合は、上記のおよびT 1を調整することで大きな違いが生まれます。σ,T0,σ,T0,\sigma, T0,T1T1T1 では、これらの(微調整)パラメータを実際にどのように選択するのでしょうか。明確なアプローチや価値がない場合でも、これを知るための一般的な手法は何ですか?

3
クロマサブサンプリング:データレートを適切に計算する方法
たとえばY'UV画像でクロマサブサンプリングを利用するときにデータレートを計算する方法を理解するのに苦労しています。 以下の計算例があります。 画像解像度:352*288 周波数:25 fps 以下のために(:4:4 4)以下のように計算例を行きます: (352px * 288px) * 3 color channels * 25 fps * 8 bit = 60 825 600 bit/s ここまでは順調ですね。 しかし、今来る(4:2:0): (352px*288px) * 1.5 color channels * 25 * 8 = 30 412 800 bit/s さて、この例を例(4:1:1)に変換しようとすると、1.5カラーチャネルの比率がどのように計算されるかを正しく理解しているかどうかわかりません。 計算の最初の推測は(4:2:0)の場合でした: 2/4*3=1.5 color channels 同様に(4:1:1)の場合、カラーチャネルの比率を次のように計算します。 1/4*3=0.75 color channels …

1
Roberts Edge Detectorの使用方法は?
Robertsエッジ検出を使用して画像を処理しようとしています。両方のマスクを画像に適用し、通常どおり畳み込みを実行しますか?グレースケール画像を処理するようにプログラムしようとしているので、誰かがこのエッジ検出方法の使用方法の内訳を教えてくれませんか。両方のカーネルを個別に使用して画像を畳み込みましたが、画像のへこみは正しく見えます。 ありがとう。

2
ハーレットの説明
誰かが私にいくつかの情報やリンクなどを与えることができるだろうか... ハーレット別名ハールウェーブレットのような機能に関する。私は修士論文のためにいくつかの論文を読んでおり、これらの論文のいくつかはハーレーについて簡単に述べています。私はそれらが何であるか、そしてそれらがどのように使用されるかを本当に理解することができないようです。これが基本的な質問である場合は、お詫び申し上げます。しかし、私はこの件について明確で構造化された情報を本当に感謝します。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.