信号処理

信号、画像およびビデオ処理の芸術および科学の実務家のためのQ&A

4
これは、固定パターンノイズ補正の正しい方法ですか?
私は現在、画像センサーのプログラミングを含むプロジェクトに関与しています。私たちのセンサーは私たちにノイズを与えているので、それを修正したいと思います。プロジェクトの他の誰かが、「黒」の画像を撮る、つまりレンズキャップをかぶって、すべて黒の画像を撮るというアイデアを思いつきました。(明らかにノイズによるものではありません)後続のキャプチャのこの時点で、彼は黒の画像からピクセル値を取得し、定期的にキャプチャされた画像からそれらを減算します。 画像は良く見え、ほとんどのノイズが除去されていますが、次の理由により、これがノイズを除去するための最良のアプローチであるとは確信していません。 固定画像の範囲は[-172 194](366の値)で、標準の範囲は[0 255]です。再描画すると、範囲は[0 255]に戻り、見た目は良くなりますが、これは間違っていると思います。 新しい画像は暗い場所で撮影されていることに言及してください。 この方法はノイズを除去するのに正しいですか?なぜですか?

3
非EE、ソフトウェアAPIコンテキストの「ローパスフィルター」
私は経験豊富なソフトウェアエンジニアであり、スマートフォンセンサーに取り組んでいます。DSPの基本的なEEクラスを受講し、自分の知識を応用しようとしています。畳み込み、伝達関数、z変換などを理解していると思います。FIRおよびIIRフィルターについて少し知っています。 今、ソフトウェアAPIとドキュメントを読むと、時間領域のセンサーデータにLPFを適用していることがわかります。私はあなたが差分方程式を使用してそれを行うことを知っています(例えば、y [i] = y [i-1] + 2 * x [i])ここで、時間信号を(たとえば)sinc波の係数と特定のカットオフ周波数で畳み込みます。したがって、「ローパスフィルター」の口語的な使用は、私にとって十分に正確ではありません。 たとえば、Google Android APIには次のドキュメントがあります:http : //developer.android.com/reference/android/hardware/SensorEvent.html#values public void onSensorChanged(SensorEvent event) { // alpha is calculated as t / (t + dT) // with t, the low-pass filter's time-constant // and dT, the event delivery rate final float alpha = 0.8; …

3
実世界の録音でFastICAによる音声信号の分離に失敗する
Python MDP FastICAのコードを使用して、ステレオWAVファイルでFastICAを実行するプログラムを作成しました。 オーディオの例私は非常に良い結果を得ます。 次に、マイク1をLチャンネルに、マイク2をRチャンネルに接続して、PCのステレオマイク入力に接続された2つのコンピューターモノラルマイクを使用して、現実世界の録音を試みます。静かな部屋で話している間に、バックグラウンドで音楽を再生してテストします。 ただし、FastICAを実行しても信号はまったく分離されません。マイクの品質が低すぎる可能性はありますか?FastICAを実行する前に、記録されたWAVファイル(16ビット、署名付きPCM、44100Hz)に対して何かする必要がありますか? こちらから録画をダウンロードできます。
12 ica  python 

2
モノクロ(1ビット白黒)画像変換
スキャンしたテキストを1ビットの白黒画像に変換する場合、結果を改善するためにプロセスで適用できるフィルターは何ですか?今、ディザリングエラーが画像を恐ろしく見せてしまうという問題に直面しています。 更新:ディザリングを取り消そうとするのは、はるかに難しい問題だと思います。最初の画像をモノクロ画像に変換するにはどうすればよいですか?デフォルトのアプローチconvert -monochrome img1 img2を以下に示します。また、2段階のアプローチも試してみました。1)深度を下げる(カラーパレット)とガンマ2)2値画像に変換する(図示せず)。私が遊んだ他のものには、imagemagickの順序付けられたディザが(さまざまな設定で)含まれていましたが、2段階のアプローチほどではありませんでした。

3
DCTによるテクスチャ分類
離散コサイン変換の特徴を使用して画像のテクスチャを分類することは、どの程度実行可能でしょうか?グーグル「テクスチャ分類dct」では、ニューラルネットワークを使用して、このトピックに関する学術論文を1つだけ検索します。 私のアプリケーションでは、ラベル付けされた画像の大きなコーパスがあり、画像全体が一貫したテクスチャです(たとえば、毛布、木の樹皮、芝生のフィールドのクローズアップショット)。 前の質問への回答に触発されて、次のアプローチを検討していました。 各画像をピクセルのNxNブロックに分割します 各ブロックのDCTを取る 各DCTを1xM配列に平坦化し、K-Meansクラスタリングアルゴリズムに送り、各DCTのクラスターラベルを取得します。 #3から画像ごとに各ラベルをカウントすることにより、各画像のクラスタリングラベルのヒストグラムを計算します 一連の[(histogram、image label)]を供給することによりSVM分類器を訓練する これはどれくらいうまくいくでしょうか?SIFT / SURFアルゴリズムを介して抽出された機能を使用して同様のシステムを実装しましたが、約60%の精度しか得られませんでした。 DCTを使用してテクスチャを分類できる他の方法はありますか?

4
時間領域信号を「ホワイトニング」する方法は?
「プレホワイトニング」フィルターまたは単に「ホワイトニング」フィルターと呼ばれるものを正確に実装する方法を理解しようとしています。 その目的は自己相関関数としてデルタを持つことであると理解していますが、これを正確に行う方法はわかりません。 ここでのコンテキストは次のとおりです。信号が2つの異なる受信機で受信され、それらの相互相関が計算されます。相互相関は、三角形、または他の神々しい形のように見えます。このため、相互相関信号のピークを見つけることが難しくなります。この場合、相互相関を実行する前に信号を「白色化」しなければならないという話を聞きました。その結果、相互相関はよりデルタに近くなりました。 これはどのように行われますか? ありがとう!

1
KLTトラッカーでの逆ヘッセ行列の固有値の解釈
私は修士課程の学生で、コンピュータービジョンのセミナーを準備しています。トピックには、Kanade-Lucas-Tomasi(KLT)トラッカーがあります。 J. Shi、C。Tomasi、「追跡する優れた機能」。Proceedings CVPR '94。 KLTトラッカーを理解するために使用しているWebリソースを次に示します。私は線形代数に少しさびていて、コンピュータービジョンの経験がないので、数学の助けが必要です。 この式ではΔpΔp\Delta p(概要ステップ5)、ヘッシアン逆に注意してください。 Δp=H−1Σx[∇I∂W∂p]T[T(x)−I(W(x;p))]Δp=H−1Σx[∇I∂W∂p]T[T(x)−I(W(x;p))]\Delta p = H^{-1}\Sigma_x\left[\nabla I \frac{\partial W}{\partial p}\right]^\mathsf{T} \left[T(x) − I(W(x; p))\right] min(λ1,λ2)>thresholdmin(λ1,λ2)>threshold\min(\lambda_1,\lambda_2)>threshold 直感は、これがコーナーを表すということです。Tわかった。それは固有値と何の関係がありますか?ヘッセ行列の値が低い場合、変化はなく、コーナーではないと思います。彼らが高い場合、それはコーナーです。KLTトラッカーの反復全体でΔpΔp\Delta pを決定するために、逆ヘッセ行列の固有値でコーナーネスの直感がどのように作用するかを知っている人はいますか? 逆ヘッセ行列が画像共分散行列に相関すると主張するリソースを見つけることができました。さらに、画像の共分散は強度の変化を示しており、それは理にかなっています...しかし、私は画像共分散行列が正確に何であるかを見つけることができませんでした。ベクトルまたは画像のコレクションではありません。 また、固有値には主成分分析で意味があるため、画像共分散行列のアイデアを得ることができますが、これは通常画像に適用されるため、これをヘッシアンに適用する方法がわかりません。私が理解する限り、ヘッセ行列は、特定の位置で、、およびの2次導関数を定義する行列です。2×22×22\times 2xxxyyyxyxyxy(x,y)(x,y)(x,y) 私は3日以上それを続けてきたので、これに役立つことを本当に感謝します、それはほんの1つの小さな式であり、時間が不足しています。

3
乗算または畳み込みとしてフィルタリングを実装する方が数値的に安定ですか?
5次バターワースフィルターを使用して20,000サンプルの信号をオフラインでフィルター処理するプログラムを作成しています。FFT実装にアクセスできます。フィルタリングを実装するための2つの選択肢があるようです。 時間領域でインパルス応答で信号を畳み込む、または 周波数領域で信号にインパルス応答を乗算し、結果を逆変換する これらの方法は、理論的なFTの場合と同じです。しかし、DFTを使用して実際にそれを行うと、状況は異なると思います。方法の1つは数値的に安定していますか?他に知っておくべき問題はありますか?計算の数は重要ではありません。
12 filters 

2
相互の誘導があるセンサー出力の減算
背景:信号の分析に使用するソフトウェアはmatlabです。2つの磁気センサーを使用して録音された2つのオーディオ信号があります。1つのセンサーをA、もう1つのセンサーをBと呼びましょう。AとBは相互インダクタンスを持っています。 センサーAとBが動作している間、センサーBからの相互インダクタンスのためにセンサーAで受信した情報を減算したいと思います。 matlab(AB)に書き込むだけで、信号Aから信号Bを減算しようとしましたが、奇妙な答えが返ってきました。それは、私が同相にあるシフトから派生していると思います。2つのトラックの開始録音時間は同じであるため、時間遅延ではないと思います。 私はこの減算プロセスを理論的にどのように行うかを知りたいのですが、matlabでそれを簡単に実装する方法があれば教えてください。 私は本当に助けに感謝します。 前もって感謝します。 以下に、信号グラフの写真を添付し​​ました。最初の写真では、センサーAとセンサーBから受信した信号を見ることができます。2番目の写真では、センサーAを赤で、センサーBを青で2.12:2.16の範囲でプロットし、さらにズームインしました。
12 audio 

1
曲内の数学関数を認識する
私はDSPを初めて使用しますが、このStackExchangeを発見したばかりなので、この質問を投稿するのにふさわしくない場合はおologiesびします。 より数学的な用語でジャンルを説明するリソースはありますか?たとえば、曲のこのセクションの信号でFFTを実行した場合(リンクがそこから開始しない場合は2:09)、このセクションにその大まかな種類があることを検出できる方法はありますか音の?このような音は、私が比較できる数学関数に従っていますか? http://www.youtube.com/watch?v=SFu2DfPDGeU&feature=player_detailpage#t=130s(リンクはすぐにサウンドの再生を開始します) 教師あり学習テクニックを使用する唯一の方法ですか、それとも別のアプローチがありますか(好ましくは、監視を必要としません)? アドバイスありがとうございます。


1
ISIを使用しない最適な整合フィルター
デジタル信号を成形するために使用されるフィルターがあり、フィルターの組み合わせによってISIが発生しないようにするには、どの「一致した」フィルター、がSNRを最大化しますか?p (x )p(バツ)p(x)q(x )q(バツ)q(x) デジタル通信では、信号対雑音比を最大化するために整合フィルターが使用されます。多くの場合、ルートレイズドコサインフィルターは、信号を整形するために使用されます。これは、周波数空間で制限されており、同じフィルターを受信信号に適用して、シンボル間で信号対雑音比(SNR)を改善できるためです-干渉(ISI)。 ただし、最適でないフィルタを使用して信号を整形する場合、受信機で同じフィルタを使用するとISIが発生する可能性があります。受信側で最適なフィルターの選択が何であるかはすぐにはわかりません。 私の理解では、最大化することでSNRが最大化されるため、フィルターがISI(引き起こさないという制約を満たしながらこれを最大化したいのため、整数であり、)シンボル幅です。∫p (x )q(x )dバツ∫p(バツ)q(バツ)dバツ\int{p(x)q(x)dx}p (x )∗ q(x )= 0p(バツ)∗q(バツ)=0p(x)*q(x) = 0x = k Tバツ=kTx=kTkkkTTT おそらく、制約のラグランジュ乗数でオイラー-ラグランジュ方程式を解くことでこれを行うことができます。もっと簡単な方法はありますか、それとも間違いを犯しているか、間違った方向に進んでいますか?

3
2つのオーディオファイルを比較して、差異の割合を返す方法
2つのオーディオファイルを比較する方法はありますか?私が使用していますC#VS08、.NET Frameworkの3.5を。 編集済み:サウンドの違い(例:オーディオ1 "HELP":、オーディオ2:など"HELP ME PLEASE"、この2つのオーディオのパーセンテージの違いを返します。) 現在、録音されたファイルをwav形式で保存していますが、そのビットレートと品質も、録音されて比較されるものと同じになります。同じプロパティと同じ形式(WAV)の2つのオーディオファイルのサウンド(バイナリだけでなく)を比較し、2つのオーディオファイルの2つのサウンドの割合の差を表示する方法があるかどうかを確認したいと思います。 ヘルプは大歓迎です。
12 audio  c# 

2
共分散と自己相関
これらの概念の間に直接の関係があるかどうかを把握しようとしています。厳密には定義から、それらは一般的に異なる概念であるように見えます。しかし、私はそれについて考えるほど、彼らは非常に似ていると思います。 レッツX,YX,YX,Y WSSランダムベクトルとします。共分散、CXYCXYC_{XY}、で与えられるCXY=E[(X−μx)(Y−μy)H]CXY=E[(X−μx)(Y−μy)H]C_{XY}=E\left[(X-\mu_x)(Y-\mu_y)^H\right]HHHベクトルのエルミートを表します。 してみましょうZZZ WSSランダムベクトルとします。自己相関関数RXXRXXR_{XX}、で与えられるRZZ(τ)=E[(Z(n)−μz)(Z(n+τ)−μz)H]RZZ(τ)=E[(Z(n)−μz)(Z(n+τ)−μz)H]R_{ZZ}(\tau)=E\left[\left(Z(n)-\mu_z\right)\left(Z(n+\tau)-\mu_z\right)^H\right] 注の編集信号処理に適用されるこの定義には修正があります。以下のマットの回答を参照してください。 共分散は時間の概念を含まず、ランダムベクトルの各要素がランダムジェネレーターの異なる実現であると想定しています。自己相関は、ランダムベクトルが初期ランダムジェネレーターの時間発展であると想定しています。しかし結局のところ、これらは両方とも同じ数学的実体、つまり数列です。あなたが聞かせている場合X=Y=ZX=Y=ZX=Y=Z、表示されますCXY=RZZCXY=RZZC_{XY}=R_{ZZ}私が行方不明ですがより微妙なそこに何かありますか?

3
周波数分解能が良い場合、ゼロパディング後にDFTで周波数リークが発生するのはなぜですか?
この例を考えてみましょう: Fs=1000; Ns=500; t=0:1/Fs:(Ns-1)*1/Fs; f1=10; f2=400; x=5+5*sin(2*pi*f1*t)+2*sin(2*pi*f2*t); X=fft(x); このシナリオでは、周波数分解能は2で、すべての周波数成分が正しくキャプチャされています。ただし、これを行うと: X=fft(x,1000); 周波数分解能は1ですが、スペクトル漏れがあります。ここでも同様の効果が見られます。両方のウィンドウのフーリエ変換(1つは長さ500、もう1つは長さ1000)は、信号で示される周波数でゼロを持っているように思えます。そのため、リークが発生する理由がわかりません。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.