タグ付けされた質問 「image-processing」

一般に、画像処理は、写真やビデオフレームなどの入力が画像である信号処理の任意の形式です。

1
画像/ビデオ処理の基本スキルセットを拡張して深める方法は?
講義は受講しませんでしたが、過去3ヶ月間、講義ノートや重要書を基に勉強しました。そこで、この時点で、画像処理スキルを磨きたいと思います。もちろん、私はたくさんの画像処理作業を行っていますが、作業は非常に似ているようです。 プログラマーとして、私はトップコーダーなどから多くのことを学びました。難しい画像処理の問題を解決できるWebサイトはありますか?

2
ハリスの角に配置された視覚的特徴のオクターブとサイズを推定する方法
私は現在、OpenCVによって提供されるいくつかの機能検出器のパフォーマンスを比較し、視覚的な機能マッチングの基礎として比較しています。 SIFT記述子を使用しています。MSER機能とDoG (SIFT)機能を検出するときに、(不正な一致を拒否した後)満足できる一致を達成しました。 現在、私はGFTT(追跡のための優れた機能-Harrisコーナー)でコードをテストして比較を行っています。また、最終的なアプリケーションでは、一連のGFTT機能が視覚的機能追跡プロセスから利用できるようになるためです。 私が使用しcv::FeatureDetector::detect(...)ているのはstd::vector<cv::KeyPoint>、検出された機能/キーポイント/関心領域で満たされたものです。構造にcv::KeyPointは、フィーチャの場所に関する基本情報、sizeおよびoctaveキーポイントが検出された情報が含まれています。 GFTTを使用した最初の結果は、さまざまなタイプの機能の典型的なパラメーターsizeとoctaveパラメーターを比較するまではひどいものでした。 MSERはサイズ(10〜40px)を設定し、オクターブを0のままにします DoG(SIFT)はサイズとオクターブの両方を設定します(サイズとオクターブの比率は20から40の間) パラメータは常にGFTTです:サイズ= 3、オクターブ= 0 これは、GFTT機能の主な目的が照合ではなく追跡のみに使用されていたためだと思います。このような小さな特徴から抽出された記述子は、小さな1ピクセルのシフトを含む多くのものに対して差別的で不変ではなくなるため、これはマッチング結果の質の低さを説明しています。 私は手動で設定する場合sizeのGFTTをする10から12まで、私が使用しているときに非常に似て良い結果、取得MSERかのDoG(SIFT)を。 私の質問は、「go-with-with-10-see-if-it-works」よりもsize(および/またはoctave)をどれだけ増やすかを判断するより良い方法はありますか?可能な場合は増加をハードコーディングせずにプログラムで決定したいのですが、新しい/ 増加 / 推定アルゴリズムの選択を裏付けるいくつかの確かな引数がある限り、ハードコーディングで問題ありません。sizesizesizesize

4
カラーチャートから色を認識する方法は?
以下のカラーチャートとカメラを使用して、チャート内の各パッチの色を抽出するビジョンアプリケーションを開発しています。これを行うには、まず画像内のチャート領域を検出し、その領域をパッチの場所を含む既存のテンプレートと一致させる必要があります。 私の質問:チャートの4つのコーナーを認識してカラーパッチ領域を検出する必要があります。下の画像に小さなはめ込み長方形が示すコーナーを見ることができます。これを実行する1つの方法は、ユーザーがコーナーをクリックしてそれらのコーナーを選択できるようにすることです。しかし、画像から四隅を自動的に検出する方法はありますか。

2
ウェーブレット変換
画像に対して2Dハール離散ウェーブレット変換と逆DWTを実行したい。2D haar離散ウェーブレット変換と逆DWTを簡単な言語で説明し、2D haar dwtのコードを記述できるアルゴリズムを説明してください?Googleで提供された情報は技術的すぎました。画像を4つのサブバンド(LL、LH、HL、HH)に分割するなどの基本的なことは理解しましたが、DWTおよびIDWTを実行するプログラムを作成する方法を本当に理解できません。画像全体として画像に対して実行されるため、DWTはDCTよりも優れていると読みましたが、頭上にいくつかの説明がありましたが、ここでは間違っているかもしれませんが、DWTとDCTの圧縮手法はDWTまたはDCTを実行すると画像サイズが小さくなるためです。皆さんが知識の一部を共有し、私の知識を強化することを願っています。 ありがとうございました 再:それは画像フォーマットと関係があります。DWTで使用される「ピクセルの値」とは何ですか?私はそれを画像のRGB値であると想定しています。 import java.awt.event.*; import javax.swing.*; import java.awt.image.BufferedImage; import javax.swing.JFrame; import javax.swing.SwingUtilities; import java.io.*; import javax.swing.JFileChooser; import javax.swing.filechooser.FileFilter; import javax.swing.filechooser.FileNameExtensionFilter; import javax.imageio.ImageIO; import java.awt.*; import java.lang.*; import java.util.*; class DiscreteWaveletTransform { public static void main(String arg[]) { DiscreteWaveletTransform dwt=new DiscreteWaveletTransform(); dwt.initial(); } static final int TYPE=BufferedImage.TYPE_INT_RGB; …

2
線形/ロジスティック回帰アプリケーションの例
信号処理(具体的には画像処理)への線形回帰またはロジスティック回帰の超単純なアプリケーションについて疑問に思っていましたか? 私は信号/画像処理の人々にいくつかの数学的な方法を説明するように求められた数学の男であり、彼らの分野に関連するいくつかの簡単な例を使用できるようにしたいのですが、画像処理についてはほとんど知りません。だから、私は複雑なものを探しているわけではありません(私は主題がわからないので、単純な方が良いです。これらのアルゴリズムの適用性を示すために何かを見つけたいと思っています)。 ご協力ありがとうございました!

4
高速近似オプティカルフロー/イメージシフト
オペレーターに速度を落とすよう警告するために、カメラがパンする速度(水平/垂直)を検出する必要があります。 画像全体がブロックとして動いていて、実際の方向は必要ありません(ただし、HまたはVはボーナスです)。おおよその大きさだけが必要です。フレーム間で「N」を超えるピクセルがシフトした場合にトリガーします。 画像は大きく、一般的に均一な低コントラストのシーンです。追跡する明確なハイライトはありません。すべてのCPUを使用せずに、リアルタイム(60fps)で実行する必要があります。 Niaveソリューションは、中央でRoIを選択し、エッジを見つけ、フレームのペア間の類似性を計算し、フレームの1つをピクセルで左/右/上/下にシフトし、繰り返します-最小値を見つけます。 もっと賢い解決策はあるのだろうか?

4
ハフ変換画像のデハフを行う方法は?
Hough変換を作成するために、Rosetta Codeにあるコードを使用しています。画像内のすべての線を検索したいと思います。そのためには、ハフ空間の各ピークのρ値とθ値が必要です。五角形のサンプル出力は次のようになります。 ハフ空間に表示される各「ホットスポット」の単一の[θ、ρ]座標を見つけるにはどうすればよいですか?

1
2つの画像で計算されたホモグラフィと、同じ画像で逆さまに計算されたホモグラフィとの間のリンクは何ですか?
OpenCVの、私はこれらの二つの画像、たとえば、間のホモグラフィを計算します: そして 右側の変な白いフォルムは気にしないでください。これは私が使用するスマートフォンホルダーによるものです。findHomography()関数によって与えられるホモグラフィ(Fast機能検出器とHammingLUT記述子マッチャーで検出された点を使用)は次のとおりです。 A = [ 1.412817430564191, 0.0684947165270289, -517.7751355800591; -0.002927297251810, 1.210310757993256, 39.56631316477566; 0.000290600259844, -9.348301989015293e-05, 1] ここで、同じプロセスを使用して、imagemagickを使用して、180度回転した(逆さまにした)同じ画像間のホモグラフィを計算します(実際には、90度の回転または270度...)どうぞ: そして これらの画像を使用すると、ホモグラフィは次のようになります。 B = [ 0.7148688519736168, 0.01978048500375845, 325.8330631554814; -0.1706219498833541, 0.8666521745094313, 64.72944905752504; -0.0002078857275647, -5.080048486810413e-05, 1] ここで問題は、AとBをどのように関連付けるかです。Aの最初の2つの対角値はBの最初の対角値に近いですが、あまり正確ではありません(0.71486885ではなく.707805537)。私の最終的な目的は、必要な関係を使用して最終的なマトリックスを変換し、コストのかかる画像回転の計算を回避することです。

2
3D画像で重複可能な球の半径rを見つける
私の現在の問題: 半径rの球の乱数で構成される入力3Dバイナリイメージ(0と1のみを持つ3Dマトリックス)があります。 画像に球がいくつあるかはわかりません。 すべての球の半径rは同じですが、半径rはわかりません。 球は画像内のあちこちにあり、互いに重なり合うことができます。 画像の例を以下に示します。 私の要件: 半径rは何ですか? 現在、私は単に画像を平坦化してz軸を取り除き、エッジ検出を実行しています。http://rsbweb.nih.gov/ij/plugins/hough-circles.htmlを使用してハフ変換を試みています。 ただし、ハフ変換では、変数の最小半径、最大半径、および円の数を指定する必要があることがわかりました。私は以下のいくつかの試みを試しました: 正しいパラメータが与えられれば、ハフ変換は円をうまく検出できます。しかし、実際のアプリケーションでは、球の数はわかりません。また、最小半径と最大半径を推測しようとするプログラムを作成するのは現実的ではないようです。これを達成する他の方法はありますか? クロスリンク:https : //math.stackexchange.com/questions/118815/finding-radius-r-of-the-overlappable-spheres-in-3d-image

2
画像内の特定の行を見つける
次の図で、青色と灰色の間の線を見つけたい: より正確には、その線の終点。 ハフ変換は選択ですか?はいの場合、ハフを使用する前に画像をどのように設定すればよいですか? これを解決する方法があれば役に立ちます。

1
画像のテクスチャ検出と領域プロパティ
解決しようとしている興味深い問題があります。たとえば、2つのテクスチャ(AとB)を含む白黒画像がある場合、個々のテクスチャを完全にカバーする境界のピクセル値を知りたいと思います。 画像上のテンプレート(凡例)の位置のクラスターを与える相互相関を使用することを考えましたが、それを使用して境界のピクセル値を取得する方法はありますか(これらは通常不規則です)?また、これを行う他のより良い方法はありますか? これの実際の例は、1年の3つのレベルの降雨を示すマップで降雨の領域を検出することです。各レベルには、凡例に存在するテクスチャが割り当てられ、同じ画像でのテクスチャマッチングに使用されます。

1
グレースケールであるはずのRGB画像のカラーチャネルシフトを見つける方法は?
水平方向に色をシフトしているように見えるレコーディングデバイスを使用しています。色の歪みが最小限の画像を取得するために、チャネルの2/3で行う必要があるシフト解除の量を知りたいのですが。 ここで、元の画像では少なくとも青のチャネルが約1.0ピクセルだけシフトして戻っていることがわかります。 問題は、最適なシフトなしの値をどのように検出できるかです。それらは整数ではないと確信しています。

2
表面検出
大きな領域の灰色(白から黒までの範囲)を画像からどのように分割しますか?(opencvでこれを知っている場合は、opencvで何をするかを言うことで答えることができます)。たとえば、次の図を考えてみます。 これはグレーの大きな領域であり、他の領域とは明確に区別できます。この領域にグレーの濃淡があり、リアルタイムで機能する必要がある場合、これをどのようにセグメント化できますか。 事前にTHX。

1
相互相関行列
私のグループでは、量子力学システムからの抽象的な情報を画像として表示するアルゴリズムを開発しました。このようにして、量子システムが与えられた場合、同じ情報を持ち、いくつかの特徴を可視化する関連画像を取得します。 重要な機能の1つは「相互相関行列」を使用して取得されます。画像をサブ画像に分割し、すべてのペア間の「オーバーラップ」を見つけます。したがって、サブイメージおよびのエントリ、は、それらがどの程度類似しているかを示す数値です。行列の次元はです。L×LL×LL\times LiiijjjAi,jAi,jA_{i,j}L2×L2L2×L2L^2\times L^2 問題は、次のとおりです。この行列または親族は、画像処理で使用されていますか?ある場合、名前はありますか?それには興味深い特性がありますか、それとも有用なアルゴリズムに役立ちますか?

2
勾配ベースのハフ変換を実装する方法
私はエッジ検出にハフ変換を使用しようとしています、そして基礎として勾配画像を使用したいと思います。 私はこれまでやっていること、画像所与のIサイズの[M,N]とその偏導関数gx、gy、各画素の勾配角度を計算することですthetas = atan(gy(x,y) ./ gx。同様に、勾配の大きさをとして計算しmagnitudes = sqrt(gx.^2+gy.^2)ます。 ハフ変換を作成するには、次のMATLABコードを使用します。 max_rho = ceil(sqrt(M^2 + N^2)); hough = zeros(2*max_rho, 101); for x=1:M for y=1:N theta = thetas(x,y); rho = x*cos(theta) + y*sin(theta); rho_idx = round(rho)+max_rho; theta_idx = floor((theta + pi/2) / pi * 100) + 1; hough(rho_idx, theta_idx) = hough(rho_idx, theta_idx) + …

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.