信号処理

信号、画像およびビデオ処理の芸術および科学の実務家のためのQ&A

2
強度レベルの深さに基づく画像の3D再構成?
オブジェクトがビューアーからどれくらい離れているかに基づいてオブジェクトをセグメント化する方法はありますか? 色の値はこの種のことを私たちのために評価できますか?強度レベルは、オブジェクトが視聴者からどれだけ離れているかを判断するのにどのように役立ちますか? 別の画像:

2
優れたオープンソース(無料)手書きOCRプログラムはありますか?
タイトルはそれをすべて求めます。私の前にはあまり熱心ではないデータ入力タスクがあります:50-100ページの手書きサインアウト/サインインログ。 ログの形式が役立つ場合があります。ページは明確に区切られた行と列に分割されます(13r x 6cに追加のヘッダー行があります)。さらに役立つのは、3つの列が日付/時刻に関連していることです(日付、タイムアウト、入力)。また、2つの列(リソースと名前)のデータは多かれ少なかれ列挙されるので、たとえば、同じ手書き文字で名前列に「Smith」という名前が何度も​​現れることがあります。最後の列「Notes」は自由形式ですが、前の6列を自動化できれば、Notesを手入力することは気にしません。 助言がありますか?(「入力を開始する」以外に) PSこれを尋ねるより良いSEサイトがあれば、私に知らせてください、私はそこで尋ねます。

2
幾何学的に間隔を空けたビンを使用したDFT?
従来の離散フーリエ変換(DFT)とその従兄弟であるFFTは、等間隔のビンを生成します。つまり、最初のビンの最初の10ヘルツ、2番目のビンの10.1から20などのようになります。しかし、少し違うものが必要です。各ビンでカバーされる周波数の範囲を幾何学的に増やしたいです。1.5の乗数を選択するとします。次に、最初のビンに0〜10があり、2番目のビンに11〜25、3番目に26〜48などが必要です。この方法で動作するようにDFTアルゴリズムを変更することは可能ですか?
16 fft  dft 

1
FFTスペクトルを使用して類似の音楽を見つける
さまざまなジャンルの音楽を含むライブラリ内の類似の曲を一致/検索する方法を見つけるために、数週間実験してきました。 私の最初の試みは、テンポなどの機能または曲に含まれるベースの数を検出してグループを形成することでしたが、歌のビートの約20%をカウントする必要がないため、このアプローチ(ボリューム変更ベースのビート検出)にはあまり行きませんでした常に、時にはそれらの1/2または1/3であり、私はそれを実装できませんでした。 数週間失敗した後、私はこの投稿で後述する新しいアイデアを得ました。簡単に言うと、ファイルのスペクトルサンプルを取得して、ファイルの「平均スペクトル」のようなものを作成して比較します。背後にあるアイデアは、たとえば、Hardstyleには通常のロックミュージックよりもはるかに多くのベースがあるということでした。また、Audacityのいくつかのスペクトラムを見て、これを確認しました。 ファイル1:完全なファイルFFTスペクトルの取得(2048サンプルサイズatm、振幅ログ、スケーリング) すべてのスペクトル配列を合計し、各ビンの平均を取る 同じいくつかの他のファイルを実行し、すべての結果を保存します ファイル1と他のファイル間のFFT値の差異リストを作成する ファイル1とファイルXの差を平均化する これらの平均で昇順で並べ替え 「差異値」が最も低い曲は類似していると見なされます。 これが私のアイデアを実装するための正しい/良い方法であるかどうか、良い知識を持っているあなたの一部は私に言うことができますか?
16 audio  fft  music 

2
これら2つのガボールフィルター関数の違いは何ですか
私のプロジェクトでは、背側の手の静脈画像で静脈の可視性を高める必要があります。2つの異なる偶数対称ガボールフィルターバンクを使用して、静脈の視認性を向上させます。 最初のバンクは次のガボール関数で構成されます: Gem k(x 、y)= γ2個のπσ2exp{ −12(xθ+ γ2y2θσ2)} ×( cos(2 πf0バツθ)− exp(- υ22))Gmke(x,y)=γ2πσ2exp⁡{−12(xθ+γ2yθ2σ2)}×(cos⁡(2πf0xθ)−exp⁡(−υ22))G^\mathit{e}_\mathit{mk}(x,y)=\dfrac{\gamma}{2\pi\sigma^2}\exp\Bigg\{-\frac{1}{2}\left(\dfrac{x_\mathit{\theta}+\gamma^2y_\mathit{\theta}^2}{\sigma^2}\right)\Bigg\}\times \left(\cos(2\pi f_\mathit{0}x_\mathit{\theta})-\exp(-\dfrac{\upsilon^2}{2})\right) 2番目の銀行は次のもので構成されます。 Gem k(x 、y)= exp{ −12(xθ+ γ2y2θσ2)} ×cos(2 πf0バツθ)Gmke(x,y)=exp⁡{−12(xθ+γ2yθ2σ2)}×cos⁡(2πf0xθ)G^\mathit{e}_\mathit{mk}(x,y)=\exp\Bigg\{-\frac{1}{2}\left(\dfrac{x_\mathit{\theta}+\gamma^2y_\mathit{\theta}^2}{\sigma^2}\right)\Bigg\}\times \cos(2\pi f_\mathit{0}x_\mathit{\theta}) ここで、スケールインデックスであり、kは配向指数であり、fはθはフィルタの中心周波数であり、σは、標準偏差(しばしば呼ばれるスケール)されるγは楕円ガウスエンベロープのアスペクト比で、υは DC応答を決定する要因であります、X θ = (X のcos θ + Y のsin θ )とY θ = (- X sinがθ + Y のcos θ )の回転バージョンであるXmmmkkkfθfθf_\thetaσσ\sigmaγγ\gammaυυ\upsilonバツθ= (x cosθ …


1
画像からグレアを除去する
免責事項:私は信号処理に従事していません。とても好奇心が強い... Nyの質問は、非常に簡単です。画像にソフトウェア処理を適用して、ヘッドライトのまぶしさを除去または軽減することは可能ですか? 次のような写真になります。 これが可能な場合、これに使用できるソフトウェアライブラリはありますか?どの言語でもかまいません。機能だけが必要です。これに関する現在の研究があるかどうか、誰もが知っていますか?

2
画像ノイズ低減用のウィナーフィルター(画像ノイズ除去)
私は、イメージノイズを低減するために、ウィナーフィルターの動作を頭で確認しようとしています。私の場合、最初に別のノイズ低減フィルターを使用してから、この結果をウィナーフィルターのノイズ特性の近似値として使用します。 Wienerフィルターに関する情報に関して、次のMatlabコードと説明が役立つことがわかりました。 http://www.mathworks.co.uk/help/toolbox/images/f11-12251.html#f11-14272 などのいくつかの他の良いリンク http://blogs.mathworks.com/steve/2007/11/02/image-deblurring-wiener-filter/ したがって、Matlabの観点から、組み込みのMatlab関数の使用方法を見ることができますが、関数呼び出しを使用するだけでなく、より基本的な理解を得たいと思いますが、同時に、より消化しやすいものを見つけたいですウィナーフィルタリングに関するウィキペディアのエントリ。 Wienerフィルタリングについて簡単に説明したい人はいますか?

3
すべてのソース信号がすべてのセンサーで検出できない場合、ICAは混合信号の分離に適していますか?
信号の混合物をM構成成分に分離するためのICAの一般的な実装では、信号がソースの線形瞬間混合物であると想定される必要があります。私が遭遇したICAのすべての記述は、すべてのN個の信号混合物にすべてのM個のソースがある程度存在しているという事実を当然と考えているようです。 NNNMMMMMMNNN 私の質問は、源がすべてではなく一部の信号混合にのみ存在する場合はどうなりますか? MMM このシナリオは、ICAがこれらの信号を分離できるようにするために必要な基本的な前提に違反していますか?(議論のために、過剰または完全なシステム(またはN = M)を扱っており、M個のソース信号のそれぞれが実際には互いに統計的に独立していると仮定します)。N>MN>MN>MN=MN=MN=MMMM この状況が発生するICAの使用を検討している実装は、次のとおりです。それぞれ異なる数のチャネルを持つ4つの異なるタイプのセンサーからのデータがあります。具体的には、24チャネルのEEGデータ、3チャネルの眼電図(EOG)データ、4チャネルのEMGデータ、1チャネルのECGデータがあります。すべてのデータが同時に記録されます。 EEGデータ内のECG、EMG、およびEOG信号の寄与を特定して、それらを削除できるようにします。期待は、EMG + ECG + EOG信号がEEGセンサーによってピックアップされることですが、その逆はありません。また、EOGとEMGはおそらく互いに汚染し、ECGで汚染されますが、ECGはおそらく他のすべての信号からかなり分離されます。また、ミキシングが発生する場所では、線形で瞬間的であると想定しています。 私の直感では、ICAは仮説的に、非常に小さい(0に近い)係数のミキシングフィルターを返し、混合信号へのソースの寄与がないことを説明できるほどスマートである必要があります。しかし、ICAが信号を分離する方法についての何かが、すべてのソースがすべての混合物に存在するという期待を本質的に強制するのではないかと心配しています。私が使用している実装はFastICAです。これは、投影追跡ベースのアプローチです。
16 ica  eeg  separability 

1
ワイヤレス信号のドップラーシフトを推定および補正する方法
通信のコンテキストで、音響信号でもRF信号でも、送信信号のドップラーシフトの推定(およびその後の補償)に適した方法はどれかと考えていました。 質問:具体的には、ドップラーシフトの程度がパケットの持続時間にわたって変化している場合、推定(追跡)し、それを補正する最善の方法。トレーナーシーケンスがあるとします。また、信号通過帯域BWがその搬送波のオーダーであると仮定することもできます。(例えば、通過帯域信号が2500-7500 Hzから存在する場合、そのBWはキャリアと同様に5000Hzです。) コンテキストの追加の背景: 私の研究中に見つけた1つの方法: トレーナーシーケンスがあり、その周波数がわかっているため、最初に受信周波数を推定します。 次に、媒体内の波の速度、既知の送信周波数、新しい推定ドップラーシフト周波数に関連する比率でパケット全体をリサンプリングします。 これはシミュレーションではうまく機能しますが、弱点は周波数推定が非常に正確でなければならないことです。また、パケットの持続時間中にドップラーシフトが変化しないことも想定します。 パケットの持続時間中にドップラーが変化しているときに問題を解決するために利用できる他の方法はありますか?上記の方法の意見は何ですか? どうもありがとう!

3
輪郭の一致-輪郭の変位を見つける
同じオブジェクトの2つの画像で輪郭を見つけ、このオブジェクトの変位と回転を見つけたいです。私はこの輪郭の回転した境界ボックスとその角度と中心点を試しましたが、境界ボックスの回転は、角度a + 0、a + 90、a + 180などで同じであるため、輪郭の回転を正しく認識しません度。輪郭の回転と変位を見つける他の良い方法はありますか?たぶん凸包、凸欠陥のいくつかの使用?等高線のマッチングについてOpenCvの学習で読みましたが、助けにはなりませんでした。誰かが例を挙げることができますか? 例: たとえば、ピンクの四角や、2番目のケースのペンを検出したい。他の例は、いくつかの穴や星などのある正方形です。私が言ったように、私はいくつかの普遍的なものを作りたいです。可能な限り多くのメソッドをテストしたいので、提案はありがたいです。

3
ガボールフィルターは車のへこみの検出に使用できますか?
車のへこみを検出するためのガボールフィルターに関する研究を行っています。Gaborフィルターは、パターン認識、指紋認識などに広く使用されていることを知っています。 画像があります。 MathWorks File Exchangeサイトのコードを使用して、次の出力を得ました。 これは、どういうわけか期待される出力ではありません。これは良い結果ではありません。 私のスクリプトは次のとおりです。 I = imread('dent.jpg'); I = rgb2gray(I); [G, gabout] = gaborfilter1(I, 2, 4, 16, pi/2); figure imshow(uint8(gabout)); 編集:次の画像に異なるコードを適用します: ガボールフィルターのさまざまな方向の後の出力画像: 適切に検出されているこのDENTを分離するにはどうすればよいですか?

2
整数係数による画像のダウンサンプリング
整数係数で画像をダウンサンプリングする場合、明らかな方法は、出力画像のピクセルを入力画像の対応するブロックの平均に設定することです。n × nnnnn × nn×nn \times n この方法が最適ではないことをどこかで漠然と読んだことを覚えています(詳細は覚えていません) より良い方法があるというのは本当ですか?私は信号処理について多くを知りません、この質問はちょうど興味があります。

3
MPEGの予測コーディングでモーションベクトルはどのように機能しますか?
MPEGには、画像がマクロブロックに分割され、それらのマクロブロックごとに動きベクトルが計算されるプロセスがあります。次に、これらのベクトルを予測誤差とともに送信して、ビデオシーケンスの次の画像を再構築します。 これがどのように機能するかをしっかり把握しようとしています。各マクロブロックにはモーションベクトルが関連付けられており、(ベクトルが[1,0]のall the pixels in this block move 1 in the x direction and 0 in the y direction for the next frame. 場合)、すべてのモーションベクトルが正しく位置合わせされない場合、画像の領域が考慮されないままになることはありません(そのマクロブロックがそもそもあった)? たとえば、見つけた次の質問があります。 時間tでの次の画像を考えます。 7 7 7 7 7 7 5 5 7 5 5 8 8 8 8 8 9 9 9 9 9 9 9 9 …


弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.