タグ付けされた質問 「canny-edge-detector」

1
キャニーエッジ検出器のさまざまなパラメーターの影響を説明できますか?
Cannyエッジ検出器に関する最後の2つの質問 キャニーエッジ検出器の制限は何ですか? そして 葉の静脈を分割する最良の方法? アルゴリズムの基本的な概要は次のとおりです。 a。ガウスたたみ込みを適用します。(ここで作成する選択) b。2D導関数を適用する c。ヒステリシス下限および上限T0およびT1(ここでT 0およびT 1の選択を選択)を使用して、このエッジの隆起を追跡し、しきい値処理(エッジにないピクセルをゼロに設定)します。 σσ\sigmaT0T0T0T1T1T1 詳細については、こちらをお読みください。 一方、キャニーは最適であると主張されています。実際的な結果が重要な場合は、上記のおよびT 1を調整することで大きな違いが生まれます。σ,T0,σ,T0,\sigma, T0,T1T1T1 では、これらの(微調整)パラメータを実際にどのように選択するのでしょうか。明確なアプローチや価値がない場合でも、これを知るための一般的な手法は何ですか?

3
クロマサブサンプリング:データレートを適切に計算する方法
たとえばY'UV画像でクロマサブサンプリングを利用するときにデータレートを計算する方法を理解するのに苦労しています。 以下の計算例があります。 画像解像度:352*288 周波数:25 fps 以下のために(:4:4 4)以下のように計算例を行きます: (352px * 288px) * 3 color channels * 25 fps * 8 bit = 60 825 600 bit/s ここまでは順調ですね。 しかし、今来る(4:2:0): (352px*288px) * 1.5 color channels * 25 * 8 = 30 412 800 bit/s さて、この例を例(4:1:1)に変換しようとすると、1.5カラーチャネルの比率がどのように計算されるかを正しく理解しているかどうかわかりません。 計算の最初の推測は(4:2:0)の場合でした: 2/4*3=1.5 color channels 同様に(4:1:1)の場合、カラーチャネルの比率を次のように計算します。 1/4*3=0.75 color channels …

2
ハフ変換の前にSobel / Prewittエッジ検出の代わりにキャニーエッジ検出が使用されるのはなぜですか?
ハフ変換が画像で機能するためには、バイナリ画像である必要があることを知っています。グレースケール画像から変換するには、エッジ検出アルゴリズムを使用する必要があります。私は人々が常にキャニーエッジ検出を他のもの(Sobelなど)の代わりに使用していることに気づきました。何故ですか?
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.