信号処理

信号、画像およびビデオ処理の芸術および科学の実務家のためのQ&A


2
ファブリック画像内の糸の数の検出
私は画像処理の初心者ユーザーであり、布地画像の糸の数、つまり縦糸と横糸(x軸に垂直および平行な糸)を決定するプロジェクトに取り組んでいます。 私は縦糸と横糸のそれぞれの列と行の合計を取得することで糸を検出しようとしていますが、画像の焦点が合っておらずシャープではないため、機能していないようです。また、この方法は、ファブリック内の糸の配列に非常に敏感です。 可能であれば、糸の検出のためのより良いアルゴリズムを提案してください。また、キャプチャされたすべての画像に対して糸を真っ直ぐにする可能性がある場合。IMROTATEを試しましたが、画像の黒い領域が作成され、行の合計が乱れ、アルゴリズムが失敗します。 この点での助けは私にとって非常に価値があります。ありがとう。

1
間引きによる信号のダウンサンプリング
私は信号、この場合は単位インパルスを間引く実験をしています。 pylabでPythonを使用しています。最初に、単位インパルスを作成し、それを5減らします。 x = r_[zeros(0), 1, zeros(100)] N = 2 ** 14 q = 5 y = decimate(x, q, ftype="fir") subplot(211) title("Original") stem(range(len(x)), x) subplot(212) title("Decimated - FIR") stem(range(len(y)), y) figure() subplot(211) semilogx(log(abs(fft(x, N)))) subplot(212) y = decimate(x, q, ftype="fir") semilogx(log(abs(fft(y, N)))) これは、次のプロットで発生します 次に、xを次のように変更して、インパルスの前にいくつかの遅延サンプルを追加します。 x = r_[zeros(3), 1, zeros(100)] これにより、次のプロットが得られます。 …
12 decimation 

2
ダウンサンプラーのZ変換
で、この論文またはマルチレートフィルタリング、著者は以下の数学的関係を確立します。ましょうyDyDy_Dそのようなダウンサンプラの出力であります yD[n]=x[Mn]yD[n]=x[Mn]y_D[n] = x[Mn] ここで、MMMはダウンサンプリング係数です。つまり、元の信号のMMM番目のサンプルごとに保持します。その後、著者は次のことを述べます。 ...のz変換yD[n]yD[n]y_D[n]によって与えられます。 YD[z]=1M∑k=0M−1X[z1/MWk]YD[z]=1M∑k=0M−1X[z1/MWk]Y_D[z]=\frac{1}{M}\sum_{k=0}^{M-1}X[z^{1/M}W^k] ここで、WkWkW^kあるMMM -ポイント離散フーリエ変換カーネル、すなわち変換 e(−j2πk)/Me(−j2πk)/Me^{(-j2\pi k)/M}。 前者の表現から後者の表現にどのように移行できますか?このような移行を可能にするDFTとZ変換の関係は何ですか?

1
連続関数のサンプリング:クロネッカーまたはディラックのデルタ?
私はシグナル処理でいくつかの論文を読んでおり、質問のタイトルの問題について非常に混乱しています。時間の連続関数考える、不均一な時間でIサンプルがこと、、ここで。私にとって、サンプリングされた関数は次のとおりです: ここで、はクロネッカーのデルタです(場合は、その他の場合はゼロ)。ただし、このペーパーでは、著者はサンプリングされた信号を次のように定義します ここでF (T )、T 、K、K = 1 、2 、。。。、N F S(T )= N Σ K = 1 δ T 、T 、K、F (T )、(1 )δ T 、T Ktttf(t )f(t)f(t)tktkt_kK = 1 、2 、。。。、Nk=1、2、。。。、Nk=1,2,...,Nfs(t )= ∑k = 1Nδt 、tkf(t )、(1 ) fs(t)=∑k=1Nδt、tkf(t)、 (1)f_s(t)=\sum_{k=1}^N\delta_{t,t_k}f(t),\ \ \ \ \ \ \ \ \ …
12 sampling 

1
音声が人間の音声にどの程度似ているかを判断する
この問題への答えを探している間、このボードが見つけたので、この質問を Stack Overflowからクロスポストすることにしました。 私は、音声セグメントと人間の声の類似性を判定する方法を探しています。これは数値で表現されています。 私はかなり検索しましたが、私がこれまでに見つけたもの(詳細は下記)は、私が必要とするものに実際には合いません。 1つの方法は、音声認識ソフトウェアを使用して音声セグメントから単語を取得することです。ただし、この方法では、人間の発話に対する「類似した」音声を思い付くことができません。多くの場合、音声に単語があるかどうかを判断できますが、明確な単語がない場合、音声がそのような単語を持っていることを近くに伝えることはできません。例:CMU Sphinx、Dragonfly、SHoUT より有望な方法は、音声アクティビティ検出(VAD)と呼ばれます。ただし、これには同じ問題がある傾向があります。VADを使用するアルゴリズム/プログラムは、アクティビティのしきい値に達したかどうかを返すだけで、そのようなしきい値の前後に「類似性」値はありません。あるいは、多くの人は人間の音声との類似性ではなく、音量だけを探します。例:Speex、Listener、FreeSWITCH 何か案は?

4
FFTを並列計算するためのアルゴリズム
テラバイトサイズの信号ファイルでFFTの計算を並列化しようとしています。現在、オープンソースライブラリを使用したこのようなFFTは、私が持っている最速のGPUでCUDAを介して実行する場合でも何時間もかかります。このプロセスに適応しようとしているフレームワークはHadoopです。非常に基本的な用語では、Hadoopは次の方法で任意の数のサーバーノードに問題を分散します。 •入力ファイルを(キー、値)のペアに分割します。 •これらのペアは「マップ」アルゴリズムに送られ、マップ内に配置したものに基づいて、(キー、値)ペアを他の(キー、値)ペアに変換します。 •次に、フレームワークは、マップからすべての(キー、値)出力を収集し、キーでソートし、同じキーを持つ値を単一のペアに集約するため、(key、list(value1、value2、 ..))ペア •これらのペアは、「リデュース」アルゴリズムに送られ、最終結果(ファイルに書き込まれる)としてさらに(キー、値)ペアが出力されます。 サーバーログの処理など、このモデルには多くのアプリケーションがありますが、特にDSPにあまり詳しくないため、FFTを「マップ」タスクと「リデュース」タスクに分割するフレームワークを適用するのに苦労しています。 これはDSPのQ&Aであるため、私はプログラミングジャンボジャンボを気にしません。ただし、FFTを並列計算するためにどのアルゴリズムが存在するかについては混乱しています。MapとReduceタスクは(技術的に)相互に通信できないため、FFTを独立した問題に分割し、最後に結果を何らかの方法で再結合する必要があります。 Cooley-Tukey Radix 2 DITの簡単な実装をプログラミングしましたが、これは小さな例で動作しますが、10億バイトの奇数/偶数インデックスDFTを再帰的に計算するのに使用できません。MapReduce FFTアルゴリズム(Tsz-Wo SzeがSSA乗算に関する論文の一部として書いたもので、2つ以上のハイパーリンクをリンクすることはできません)と「4ステップFFT」を含む多くの論文を読むのに数週間費やしました。 (こことここ)、これは互いに似ており、私が達成しようとしていることと似ています。しかし、私は数学が絶望的に​​悪いので、{1,2、3、4、5、6、7、8}(すべての虚数成分が0)のような単純なセットにこれらの方法を手で適用すると、私は非常に間違った結果になりました。誰もが効率的な並列FFTアルゴリズムを簡単な英語(私がリンクしたものまたは他のリンク)で説明できるので、それを試してプログラムすることができますか? 編集:ジムクレイと私の説明で混乱する可能性のある他の人は、私はテラバイトファイルの単一のFFTをしようとしています。しかし、プロセスを高速化するために、複数のサーバーで同時に実行できるようにしたいと考えています。
12 fft 

2
自然なサウンドのためのサウンド合成エフェクト
現在、アコーディオンシンセサイザーに取り組んでいますが、できるだけ自然に聞こえるようにしたいと思っています。 私は次の波の音が本当に好きです: https://dl.dropbox.com/u/20437903/onda%20acordeon.wav 波は次のようになります。 波を見ると、高調波が追加および減算されているように見えます。私が間違っている? サウンドシンセシスは少し新しいので、波に適用された効果とそれらを適用するためのガイダンスを特定できる人を助けていただければ幸いです。ありがとう。
12 music  sound 

2
自動焦点推定?
「焦点が合っている」という相対的な品質を推定または比較するために、2Dモノクロ画像マトリックスまたはビットマップのセットでどのような分析を使用できますか?全体的なコントラスト、輝度のスパース性、または焦点のぼけから生じるその他のアーティファクトなどのスカラーメトリックを効率的に計算する方法はありますか?

2
ガウスのラプラシアンのシグマとガウスの違いの2つのシグマの関係は何ですか?
ラプラシアンオブガウスフィルターは差分オブガウスフィルターで近似できること、および後者の2つのシグマの比率は最適な近似を得るために1:1.6である必要があることを理解しています。ただし、ガウス分布の違いの2つのシグマが、ガウスのラプラシアンのシグマとどのように関係するのかはわかりません。前者の小さいシグマは後者のシグマに等しいですか?大きいシグマですか?それとも関係は別のものですか?

1
パワースペクトル密度、スペクトルパワー、パワー比の違いは?
離散信号のパワースペクトル密度とは何ですか?私は常に、信号のフーリエ変換を取得し、周波数範囲全体にわたる所望の周波数範囲の大きさの比が、その周波数範囲のパワースペクトル密度と同じパワー比を与えると仮定していました。それは間違っていますか?学生の論文を読むと、PSDを計算してから「希望する帯域の絶対スペクトルパワーと相対スペクトルパワー」を計算するように言われるため、混乱しました。彼らは違いますか?はいの場合、どのように計算しますか?

3
ストップバンドフィルターが他の周波数を減衰させるのはなぜですか?
2トーン信号のコードは次のとおりです。ストップバンドを使用して高いトーンを除去し、信号をフィルター係数で畳み込んだ後、周波数領域で前(青)と後(赤)をプロットします。 。 このコードをMatlabに入れると、フィルターによって高い周波数が正常に削除されたことがはっきりとわかりますが、何らかの理由で低い周波数の振幅が半分にカットされ、フィルター係数の数を増やすと、曲線全体が平らになるほど、これが起こるのはなぜですか?そして、ストップバンドが外側に伝播しないように、どうすればそれを防ぐことができますか?画像とコードは次のとおりです。 fSampling = 8000; tSampling = 1 / fSampling; t = 0:tSampling:0.005; F0 = 1000; F1 = 3000; xt = sin(2 * pi * F0 * t)+ sin(2 * pi * F1 * t); ht = fir1(40、.25、 'stop'); yt = conv(xt、ht); fAxis = -4000:125:4000-125; xF = fft(xt、64); MagXF …
12 filters  matlab 

4
帯域制限された非線形歪みなどはありますか?
したがって、サンプルの境界で信号を2つの値間で切り替えるだけで方形波を生成すると、無限の一連の高調波が生成されます。解決策は、帯域制限合成、どちらかあなたがそれをサンプリングする前に理想的な数学的な方形波をバンドは、制限されたかのように同じ波形を生成するために加算合成や帯域制限された手順を使用しました: http://flic.kr/p/83JMjT しかし、デジタル正弦波に大きな増幅を適用し、それをデジタルでクリップすると、ギブス現象の波紋がなく、同じ方形波の形状を生成することに気付きました。だから、それはまた、エイリアス歪み製品を生成していますよね?だから、任意の外部のナイキスト限界の高調波を生成し、デジタル領域での非線形歪みはエイリアス歪み製品を生産するのだろうか?(編集:いくつかのテストを行って、この部分が正しいことを確認しました。) 帯域制限およびサンプリングの前に(アナログ領域で)歪みの影響をシミュレートするために、帯域制限された歪みなどがありますか?もしそうなら、どのようにそれをしますか?「帯域制限された歪み」を検索すると、チェビシェフ多項式への参照がいくつか見つかりますが、それらの使用方法や、正弦波のみで機能するかどうかはわかりません。 この機器は、帯域制限された歪みを生成しようとしません。帯域制限された歪みに興味がある人は、チェビシェフ多項式を使用して効果を生成することを検討する必要があります。双曲線正接歪み 「チェビシェフ多項式」-本質的に帯域制限されているという重要な特性を持つシェーピング関数。つまり、オーバーラップなどによるスプリアススペクトルハーモニクスを導入しません。Wave Shaper

5
相互相関の前のアップサンプリングは役に立ちませんか?
2つの異なるセンサーからの2つの信号が相互相関し、到着時間遅延が相互相関関数のピークの横座標から計算される単純なケースを考えます。 さらに、両方のアンテナの次元の制約と、可能な最大サンプリングレートの制約により、可能な最大遅延は、10サンプルに対応するであると仮定します。DDD 問題: これらの制約のため、計算された遅延は0〜10サンプルの整数値、つまりから変動する可能性があります。私が本当に欲しいのは、アンテナに衝突する2つの信号間の遅延の分数遅延識別であり、次元やサンプリングレートの変更はオプションではないためです。0≤D≤100≤D≤100 \le D \le 10 いくつかの考え: 当然、この場合に最初に考えるのは、相互相関を実行する前に信号をアップサンプリングすることです。しかし、私はシステムに新しい情報を実際に追加していないので、これは何らかの形で「ごまかし」だと思います。 ある意味で、アップサンプリングがいかに「ごまかし」ではないのか理解できません。はい、現在観測されている周波数情報に基づいて信号を再構築していますが、これにより、たとえばと間で信号が本当に開始された場所を知ることができますか?この情報は、信号の真の非整数遅延開始が実際にであると判断した元の信号のどこに含まれていましたか?D = 8 D = 7.751D=7D=7D=7D=8D=8D=8D=7.751D=7.751D=7.751 質問): これは本当に「不正行為」ですか? そうでない場合、この新しい「情報」はどこから来るのでしょうか? はいの場合、非整数遅延時間を推定するために他にどのようなオプションが利用可能ですか? 遅延に対するサブサンプルの回答を集めるために、相互相関の結果をアップサンプリングすることは承知していますが、これも「不正」の形ではありませんか?相互相関前のアップサンプリングと異なるのはなぜですか? 実際にアップサンプリングが「不正」ではない場合、なぜサンプリングレートを上げる必要があるのでしょうか?(低いサンプリング信号を補間するよりも、ある意味でサンプリングレートが高い方が常に良いのではないでしょうか?) その場合、非常に低いレートでサンプリングし、必要なだけ補間することができます。信号を単純に私たちの心の欲求に補間するという観点から、これはサンプルレートを「無駄」にしないでしょうか?補間には計算時間がかかり、単純に高いサンプルレートで開始するのはそうではないことを理解していますが、それが唯一の理由ですか? ありがとう。

1
より良いエッジ保存による画像ノイズ除去
私は入力画像を持っています: そして、ガボールフィルターを使用した葉の静脈検出の出力ですが、出力は本当にノイズが多くなります。 トータルノイズ除去を使用してみましたが、結果は良くありません: しかし、葉脈の細かい部分を失いたくないので、中央値フィルターは私の問題に合わない

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.