タグ付けされた質問 「image-processing」

一般に、画像処理は、写真やビデオフレームなどの入力が画像である信号処理の任意の形式です。

5
直交特徴を持つ任意画像上の回転角度の自動検出
次のサンプル(マイクロチップ写真の一部)のように、画像の角度を検出する必要があるタスクがあります。画像には直交する特徴が含まれていますが、解像度やシャープネスが異なるため、サイズが異なる場合があります。一部の光学的な歪みと収差のため、画像はわずかに不完全になります。サブピクセル角度検出精度が必要です(つまり、誤差は0.1°未満である必要があり、0.01°程度が許容されます)。参考までに、この画像の最適な角度は約32.19°です。 現在、私は2つのアプローチを試しました。どちらも、2°ステップの極小値に対してブルートフォース検索を実行してから、勾配を0.0001°ステップサイズまで下げます。 メリット関数はsum(pow(img(x+1)-img(x-1), 2) + pow(img(y+1)-img(y-1))画像全体で計算されます。水平/垂直線が揃っている場合-水平/垂直方向の変化が少ない。精度は約0.2°でした。 メリット関数は、画像の一部のストライプ幅/高さにわたって(最大-最小)です。このストライプも画像全体にループされ、メリット関数が蓄積されます。このアプローチは、水平/垂直線が整列しているときの明るさの小さな変化にも焦点を当てますが、大きなベース(ストライプ幅-約100ピクセル幅になる可能性があります)全体で小さな変化を検出できます。これにより、最高0.01°までの精度が向上しますが、微調整するパラメータが多数あります(たとえば、ストライプの幅/高さは非常に敏感です)。これは、現実の世界では信頼できない場合があります。 エッジ検出フィルターはあまり役に立ちませんでした。 私の懸念は、ワーストアングルとベストアングルの間の両方のケースでメリット関数の非常に小さな変化(<2x差)です。 角度検出のためのメリット関数の記述について、何か良い提案はありますか? 更新:フルサイズのサンプル画像はここにアップロードされます(51 MiB) 結局のところ、このようになります。

1
CIE標準オブザーバーの小さな赤いピーク
人間の目には、赤、緑、青の3種類の色錐体があります。それらのスペクトル感度は、短波長(S、420〜440 nm)、中波長(M、530〜540 nm)、長波長(L、560〜580 nm)でピークに達します。下の図を参照してください。 次に、CIE標準オブザーバーがあります。ウィキペディアによると、CIE三刺激値X、Y、Zを生成する3つの線形光検出器の分光感度曲線と考えることができます。 CIE標準オブザーバーのカラーマッチング関数の赤い線も440 nmでピークになる理由がわかりません。より具体的に言うと、CIE標準オブザーバーのカラーマッチング関数のx線が約440nmでピークになる原因は何ですか? 誰かが私にそれを説明できますか?

3
ガボールフィルター機能について
ガボールフィルターを使用して入力画像から特徴を生成するスクリプトを実装する必要があります。私はウェーブレットの過去の経験がなく、フーリエ解析(フーリエ解析と変換の背後にある基本的な考え方を理解しています)を学んでいるだけなので、実装は1週間で完了する必要があるため、ガボールフィルターを理解するのに役立ちません。ガボールフィルター関数の基礎を理解する必要はありませんが、それが何であり、何をするのかをある程度理解したいと思います。パラメータは何ですか?彼らはどういう意味ですか?関数の出力は何ですか?たとえば、これは私がWikipediaからコピーした式です。 g(x,y;λ,θ,ψ,σ,γ)=exp(−x′2+γ2y′22σ2)exp(i(2πx′λ+ψ))g(x,y;λ,θ,ψ,σ,γ)=exp⁡(−x′2+γ2y′22σ2)exp⁡(i(2πx′λ+ψ))g(x,y;\lambda, \theta, \psi, \sigma,\gamma) = \exp\left(-\frac{x'^2+\gamma^2 y'^2}{2\sigma^2}\right)\exp\left(i\left(2\pi\frac{x'}{\lambda}+\psi\right)\right) 今私の明白な質問は:これはどういう意味ですか?変数はどういう意味ですか?ウィキペディアによると: x,yx,yx, y:これらの座標は、座標での画像のピクセル値を指定すると仮定します (x,y)(x,y)(x,y)(2.これは大丈夫、理解されています) λλ\lambda:正弦係数の波長を表します(正弦係数、ハァッ?3a。どうやってそれを選択するのですか?3b。それはどこから来たのですか?3c。それは任意の数ですか、それとも何ですか?自由に選択できますか?) θθ\theta:ガボール関数の平行な縞の法線の方向を表します(4.これはどういう意味ですか?) ψψ\psi:位相オフセットです(5.何のオフセットですか?この値はどのように決定されますか?自由に選択されますか?) σσ\sigma:ガウスエンベロープのシグマ/標準偏差です(6.詳細な説明が必要です...) γγ\gamma:空間アスペクト比であり、ガボール関数のサポートの楕円率を指定します(7.再度詳細と説明が必要です) 最も重要な: g(x,y;λ,θ,ψ,σ,γ)=Xg(x,y;λ,θ,ψ,σ,γ)=Xg(x,y;\lambda, \theta, \psi, \sigma,\gamma) = X 出力値は何ですか XXX?どういう意味ですか? 先に述べたように、理論を完全に説明する必要はありません。なぜなら、長く、未知の主題について1000ページの本を読むことは、今の私の選択肢ではないからです。この関数をブラックボックスで理解して、コードに実装し、最も重要なこととして、何が入力で何が出力であるかを理解する必要があります。 助けてくれてありがとう!! =) PS 私はこの投稿を読みました: /math/259877/value-of-xy-in-computing-gabor-filter-function しかし、それは私の質問に十分に答えません:)

3
直接線形変換を適用する前にデータセットを正規化する理由
直接線形変換(略してDLT)はホモグラフィ推定の方法であり、SVDを介して過剰決定線形システムを解き、制約下で解を見つけます。実際、\ | Ah-b \ |を最小化する最小二乗解を見つけます 。A h = bAh=bAh=bhhh∥ H ∥ = 1‖h‖=1\|h\|=1∥ A H - B ∥‖Ah−b‖\|Ah - b\| このアルゴリズムの基本的な考え方は理解していますが、DLTを適用する前にデータセットを正規化することをお勧めします。ここでは、正規化の方法について紹介します。データの正規化はDLTにとって重要であり、正規化しないとDLTの結果は安定しないと説明されています。 なんでかしら?DLTがSVDとあAAを使用して線形システムを解くことを含むからといって、Aが特異である可能性がありますか?

1
本からスキャン-グラデーション除去
このサンプル画像: 左側が反っています。 私はゆがめたくはありませんが、シャドウグラデーション(本の背骨が原因)を削除するだけです。勾配は画像の上部から計算でき、その情報は再構成に使用できると思います。 まず、Photoshopでレイヤー変換を適用することを考えました。上部を明確なグラデーションで取り、垂直方向にスケーリングして、新しいレイヤーの画像全体をカバーしました。それから私は層の違いをしました: しかし、上部は問題なく再構築されていますが、色付きの部分はそうではありません。 Photoshop、Python / SciPy / OpenCV、Matlabでこれに取り組む方法を知っている人はいますか?


6
C / C ++でのDSPプログラミング
私はMATLABを使用しており、MATLABでの信号処理とプロットに基本的な使用経験がありますが、OpenCVを使用した画像処理で作業しているため、MATLABよりもC / C ++の方が快適です... C / C ++で信号処理を行うためのDSPライブラリまたはプラットフォーム(OpenCVは画像処理用)はありますか?

2
バイラテラルフィルターのパラメーターについて
バイラテラルフィルターに関するSzeliskiのComputer Visionブックの一部をお見せしましょう。これらのカーネル定義を解釈する方法がわかりません。 実際の合計では、とlはどのような値をとりますか?たとえば、サイズが5x5のカーネルの場合、kは負のinfと正のinfの間の値を取りますか?または1から5の間(例:matlabプログラミング)?または、-2から2までの値を取りますか?kkklllkkk また、これらの二重棒は、範囲カーネルの定義で何を意味しますか?

3
中央値フィルター次々
3x3ウィンドウでメディアンフィルタリングを実行して、画像を操作します。3x3ウィンドウでメディアンフィルタリングを再度実行して、結果の画像を操作します。結果の画像は単一のメディアンフィルタリングから取得できますか? 私の最初の考えは、それは正しいマスクで行うことができるということです。多分中央値の隣の中央値。確信はないけど。

1
デコンボリューション-リチャードソンルーシーvs.ウィーナーフィルター
私はいくつかのデコンボリューション技術を研究しています、以下のようなモーションブラーを取り除くために: リチャードソンルーシー ウィーナー どちらを使用するかの長所/短所はありますか? たとえば、Richardson-Lucyテクニックの長所と短所はどれですか。

3
形態勾配の構造化要素の形状
形態学的勾配の計算に使用される構造化要素の推奨形状を理解しようとしています。Pierre Soilleによると:形態学的画像分析: 原点を含む対称構造化要素のみが考慮されます。そうすることで、算術差が常に非負になるようにします。 算術差引用に記載され、現在の離散勾配を計算するために使用される3つの組み合わせを参照しています。 膨張と収縮の算術的差異; 膨張と元の画像の間の算術的な違い; 元の画像とその浸食の間の算術的差異。 しかし、私が思うに、その起源を含むSEを使用することがあり、十分な(それは確実に抗extensivity拡張とのextensivity浸食のを)。この場合、次のことが成立し、3つのケースすべてで非負性が保証されます。 ( iはdのアイデンティティ変換されます)εB≤id≤δBεB≤id≤δB\varepsilon_B \leq id \leq \delta_Bididid 対称条件を強制する理由を探しています。直感的に、対称SEを使用することは、非対称SEを使用するよりも優れていることを理解しています(たとえば、対称ピクセルの近傍を調べるなど)。この制約には歴史的な理由があるかもしれないことも私に示唆されました。 ただし、対称SEの望ましいプロパティ(または非対称SEの望ましくないプロパティ)を指す特定の例、引数、または参照が必要です。


2
コンピュータービジョンアルゴリズムの精度
タスクが画像上の要素の位置を決定することであるとしましょう。最初に非常に重要なことは、オブジェクトを正しく検出することです。次に、位置を計算するいくつかのアルゴリズムが使用されます(問題のあるブロブ分析のため)。すべては複数のものに依存します(検出の正確さ、使用されるアルゴリズムなど) カリブレーションされた画像があり、カリブレーションによって与えられたエラーを知っているとしましょう。コンピュータ(およびマシン)ビジョンアルゴリズムの精度を確実に計算する方法は何ですか?それは分析的に、または実験とテストによってのみ行うことができますか? 質問は、要素の位置やその他のコンピュータービジョンの問題を検出した場合のケースを追加します。 コンピューター/マシンビジョン、特に要素の位置検出に関連する問題への参照を取得し、この正確さを示すための分析的または実験的アプローチのいくつかの正確さの計算を提示します。 この質問を改善する方法の提案も歓迎します。

4
ラインアートイメージのサイズ変更
A3で線画を印刷したいのですが、600x800pxほどの大きさではありません。 リサイズしてからウェーブレットシャープナーやアンシャープマスクで強化するなど、Gimpで明らかな機能を試しましたが、その前に選択的なガウスぼかしを使用しましたが、印刷結果は良くありません。 ベクトル化も簡単ではありませんが、トレースツールを微調整すると、ビットマップのサイズを変更するよりも良い結果が得られる可能性があります。このオプションを検討する前に、アドバイスを求めようと思いました。 プログラミングアルゴリズム(numpy / scipyまたはmatlab)を使用するか、GimpまたはPhotoshopで使用可能なツールを使用して、線画の高品質なサイズ変更を実現するために、誰でもレシピを共有できますか?

2
エッジ検出アルゴリズムを使用した直線
私はオブジェクト認識のアルゴリズムを考えていましたが、ノイズのない直線に大きく依存し、エッジ検出アルゴリズムではこれを取得するのが難しいことがわかっています。直線をできるだけまっすぐに取得するための最適なエッジ検出アルゴリズムは何ですか?

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.