タグ付けされた質問 「noise」

信号処理では、ノイズは無意味なランダムな不要なデータと考えることができます。

2
エントロピーとSNRの関係
一般に、あらゆる形のエンロピーは不確実性またはランダム性として定義されます。ノイズが増加するノイズの多い環境では、目的の信号の情報内容が不確実であるため、エントロピーが増加すると考えています。エントロピーとSNRの関係は何ですか?信号対雑音比が増加すると、雑音電力は減少しますが、これは信号の情報量が増加することを意味しません!! 情報内容は同じままかもしれませんが、それはエントロピーが影響を受けないということですか?

4
遷移帯域が狭いデジタルフィルターの出力にリンギングが見られるのはなぜですか?
オーディオを使用したスペクトルマングリングタイプエフェクトの「極端な」eqを実行しています。私はレンガの壁フィルターと非常に狭い帯域通過フィルターとリジェクトフィルター(vstプラグイン)を使用しています。 。残念ながら、急勾配のeq勾配を使用する必要があります。プリリングを回避するため、最小フェーズを使用する準備ができています。 具体的には、私は疑問に思っています: 最小位相フィルターで、入力直後のインパルス応答に振動が発生する原因は何ですか? これらの振動は、急勾配スロープフィルタリングでパスバンドに追加される可聴プリおよびポスト「リンギング」音の原因ですか? 振動、したがってリンギング周波数は常に同じ周波数ですか、またはリンギング周波数は何らかの方法で入力信号に依存していますか? あなたの専門知識をありがとう。返事をお待ちしております。デール。

2
ノイズの多い.wavファイルでドラムbpmを検出する
次の問題を解決するためのアルゴリズムを探しています:ノイズの多い.wavサウンドキャプチャ(マイクの風+摩擦音)がある場合、ソフトドラムビートのBPMを検出する方法は? 対象をグーグルで検索しようとしましたが、分析と指紋ID生成の両方のためのmp3関連ソフトウェアが大量にあるため、結果はかなり貧弱です。それらのどれも実際にそれを行う方法に関する情報を提供しません。 ノイズを除去するアルゴリズムは知っていますが、それでもBPMを検出する問題が残ります。また、BPMの問題の解決方法によっては、ノイズを除去する必要さえない可能性があります(ドラムは低周波数になり、ノイズは高周波数になる傾向があるため、単純なローパスで十分な前処理が可能です)。

2
感情的なコンテンツを削除するために、音声をパラメトリックに劣化させます
RまたはMatlabで提案を受け入れますが、以下に示すコードはRのみです。 以下に添付されている音声ファイルは、2人の間の短い会話です。私の目標は、感情的な内容が認識できなくなるように、彼らのスピーチを歪めることです。難点は、この歪みのために1〜5のパラメトリックスペースが必要なことです。1〜5は「非常に認識可能な感情」、5は「認識できない感情」です。Rでそれを達成するために使用できると思った3つの方法があります。 ここから「ハッピー」オーディオウェーブをダウンロードします。 ここから「怒っている」オーディオウェーブをダウンロードします。 最初のアプローチは、ノイズを導入して全体的な明瞭度を低下させることでした。このソリューションを以下に示します(彼の提案に対して@ carl-witthoftに感謝します)。これにより、音声の明瞭度と感情的な内容の両方が低下しますが、非常に「汚い」アプローチです-パラメトリック空間を取得するのが正しいことは困難です。 require(seewave) require(tuneR) require(signal) h <- readWave("happy.wav") h <- cutw(h.norm,f=44100,from=0,to=2)#cut down to 2 sec n <- noisew(d=2,f=44100)#create 2-second white noise h.n <- h + n #combine audio wave with noise oscillo(h.n,f=44100)#visualize wave with noise(black) par(new=T) oscillo(h,f=44100,colwave=2)#visualize original wave(red) 2番目のアプローチは、特定の周波数帯域でのみ音声を歪めるために、何らかの方法でノイズを調整することです。元のオーディオ波から振幅エンベロープを抽出し、このエンベロープからノイズを生成してから、オーディオウェーブにノイズを再適用することでそれができると考えました。以下のコードはその方法を示しています。ノイズ自体とは異なる何かをし、音が割れますが、同じポイントに戻ります-ここでノイズの振幅を変更することしかできません。 n.env <- setenv(n, h,f=44100)#set envelope of …
12 matlab  audio  noise 

3
ADC性能シミュレーション:FFTからSINADを計算する方法?
この問題に取り組んでいる間、私は私の最初の定義が S私NA D = 10 ログ10(pfΣ私(p私) − p0− pf) dBSINAD=10log10⁡(pf∑i(pi)−p0−pf)dBSINAD = 10 \log_{10} \left( \frac{p_f} {\sum_i{(p_i)} - p_0 - p_f} \right)dB 正しい。この方程式では、は周波数でのFFTビンの電力、は信号周波数を含む周波数ビンの電力、はDCコンポーネントです。DC成分と信号周波数削除する前に、の合計はすべての周波数成分を累積します。 x p f f p 0 i p 0 p fpバツpxp_xバツxxpfpfp_ffffp0p0p_0私iip0p0p_0pfpfp_f より具体的には、Wikipediaの説明から解釈した部分がんΣ私(p私)∑i(pi)\sum_i(p_i) (a)元の変調オーディオ信号の電力、つまり変調された無線周波数キャリアからの電力、(b)残余のオーディオ電力、つまり元の変調オーディオ信号が削除された後に残っているノイズと歪みの電力の比率。この定義により、SINADレベルが1未満になる可能性があります。 方程式と比較すると、「元の変調オーディオ信号」は周波数にあり、FFTの項で説明されています。用語Iは、DC成分を除去すると言い、次の論文から得ました:p f p 0fffpfpfp_fp0p0p_0 で、 "理解SINAD、ENOB、SNR、THD、THD + N、およびSFDR"ドキュメント、それは言います 信号対雑音および歪み(SINAD、またはS /(N + D))は、rms信号の振幅と、高調波を含む他のすべてのスペクトル成分の二乗和(rss)の平均値との比です。 DCを除く これらの定義を見ると、SINADの別の可能な定義を考えることができます。 SINAD=10log10⎛⎝⎜pf∑i(p2i)−−−−−−√−p0−pf⎞⎠⎟dBSINAD=10log10⁡(pf∑i(pi2)−p0−pf)dBSINAD …
11 fft  noise 

4
量子化誤差はどのようにノイズを生成しますか?
自分でサンプリングとDSPについて学んでいます。量子化誤差がノイズになる原因を理解するのに苦労しています。基本的な理解が欠けていると思いますが、それが何かはわかりません。では、量子化誤差はどのようにノイズを生成するのでしょうか?
11 noise  sampling 

1
ノイズの多いポイントのコレクションから曲線を復元する
背景:ビデオ内の多数の泡を追跡するシステムを作成しようとしています Circular Hough Transformを使用して、単一画像のケースでバブル検出を実装しています。オクルージョン、ブラー、その他の要因により、この検出は100%正確になることはありません。精度を犠牲にして、再現率が高くなるように検出手順を調整しています。 これが行われ、ビデオの一連のフレームに適用されると、4D空間内のポイントとして特徴付けることができるいくつかの検出があります-x位置、y位置、半径、およびフレームインデックス。 この4D点群から曲線を復元できる手順はありますか?

2
「ノイズ除去」と、ノイズを除去するためのフィルタリング方法として一般的に知られているものの違いは何ですか?
かなり単純な質問-私は、信号の「ノイズ除去」と、ノイズを除去するために(一般的に知られているように)単にそれをフィルタリングすることの正確な違いを理解しようとしています。これは字句の重複の場合ですか、それとも根本的に異なるものがありますか?なぜ「ノイズ除去」と呼ばれるのですか? 編集:おそらく決定的に重要なのは、SNRを最大化するために信号をフィルタリングすることについて話すとき、私たちは通常、口語的な文脈でのAWGNを意味します。ノイズ除去でもAWGNと呼ばれている「ノイズ」もそうですが、そうであれば単にノイズ除去の方法が異なります。で始まる?
11 noise 

1
メディアンフィルターの周波数応答の近似
メジアンフィルターは非線形で損失の多いプロセスであるため、LTIシステムのFIRフィルター(たとえば、同じ長さのボックスフィルター)のような閉形式の周波数応答はありません。 しかし、メジアンフィルターの周波数応答に似たものをどれだけ近似できるでしょうか。 これは中央値フィルターの長さにどのように比例しますか? どのような条件下で、またはどのクラスの信号に対して、この近似は大まかに「近い」でしょうか? どのクラスの信号に対して、この近似は非常に不正確なのでしょうか? メディアンフィルターは、どのような種類の周波数領域歪みまたは付加ノイズを生成しますか?

2
信号があるかどうか(信号がノイズのように見える場合)はどのようにしてわかりますか?
これがまたいびき検出器です。 何かがあったときに信号を検出するのが得意です。壁をはがしているいびきから、録音では聞こえない呼吸まで追跡できます。問題は、信号がいつ検出可能なレベルを下回っており、アプリが「物事を聞いている」だけなのかわからないことです。そして、残念なことに、いびき/呼吸はしばしば不規則であり、単純な自己相関または同様のインターバルタイミングスキームがあまり役に立たないようです。(実際には、場合によっては、呼吸よりもノイズがより規則的である可能性があります。) それで、信号がないときに理解するために私が見逃しているトリックはありますか?「シグナル」はもともと非常にノイズのようなものであることを考えると、私はここで難しい場所に反対しているようです。 (そしてこれは私が抱えている別の問題に関連している可能性があります:不思議なことに、かなり大きな音量でも信号レベルを正確に(または概算で)測定できません。レベル情報の種類が失われます。再構成するためのいくつかのトリックを探しています。) 基本的なテクニック (依田用) オーディオ信号はサンプリングされ(通常、さまざまな理由で8000Hzで)、1024ブロックでFFTされます。(私の実験では、ハミングフィルターとオーバーラップブロックはほとんど影響がないようですが、後で再検討する場合があります)。 FFTは「バンド」(現在は5、ローエンドでより詳細に配置するためにサイズがわずかに歪んでいる)に分割され、各バンドの「スペクトル差」とレベルが合計されます。ピーク制限値の長期平均が「しきい値」として使用され、さらにバイアス調整を使用して、約20%の「しきい値超過」率を維持します。 各「しきい値を超える」値には1の重みが与えられます(しきい値未満には0の重みが与えられます)が、その重みはバンドの見かけの「変動性」(約2Hzで)によって調整され、バンドにより多くの重みを与えますより明白な信号を運びます。 バンドの重みが合計され、後続のブロックの合計された重みが約1秒にわたって合計されて、実行中の「スコア」が生成されます。これは、繰り返し平均しきい値(およびいくつかのヒューリスティック)と比較され、いびきの開始/オフセットを検出します。 更新 突然、アルゴリズムが(信号レベルの問題ごとに)一定レベルの信号を維持する場合、SNRを効果的に測定する方法は、信号がないときにノイズを測定することです。 便宜上、いびきは断続的であり、その間にたくさんの「死んだ空気」が存在します。そして、いびきのエンベロープをすでに検出しています。したがって、エンベロープの外側(いびきの終わりと次のいびきの始まりの間)の外側は、おそらくノイズです。これは(ある程度の正確さ/再現性で)測定できます。(もちろん、中途半端なアルゴリズムを思いつくのに3回の試行が必要でした-現実が理論と一致することは決してありません。) まだ完全な答えは出ていませんが、進歩しました。 (上記の手法でSNRのかなり良いプロキシが得られますが、実際の信号レベルを推定するのにまだ問題があります。私の「相対レベル」の表示は、かろうじて聞こえる息の場合はスケールから外れ、ウィンドウのガラガラの場合はまあまあです。絶対レベルのプロキシが必要です。)
11 noise  snr 

1
信号の平滑化/データストリームのバンプの検出
(編集:この質問は、生のWAVからのバイナリ磁気ストリップカードデータの抽出から続きます) これが私の信号です(上の行)と基本的なIIRフィルターが適用されています(下の行) (編集:私のタスクは、信号をバイナリ0(周波数F)とバイナリ1(周波数2F)に分割することです-これがF2Fと呼ばれる理由です。したがって、誤ったピークが発生しないように処理する必要があります。スクリーンショットはそれを些細に見えるようにします、二重ピークを取得する潜在的な問題があり、実際のピーク間の谷で偽陽性を取得する可能性もあります。) 私の質問は、この信号を平滑化するために利用できる方法は何ですか?IIRは私の最善の策ですか? 私は少なくとも3つの可能性を見ることができます: IIR y [n] = 0.9 * y [n-1] + 0.1 * x [n]ここで、x <0の場合、y [x] = 0 移動/ウィンドウ平均-面積1.0のベル曲線を周囲に配置し、両側をw = 10サンプルと統合し、bellSmooth(x)= integral [xw、x + w] {bell(k).samp(k)} dk 予想される周波数とFFTを決定する/高次のビンを削除する/逆FFT 私は自分の質問に答えたかもしれませんが、おそらくこれは不完全であり、間違った用語を使用していると確信しています。また、私は長所と短所を実際に予測することはできません。最後の方法は、基本的な信号周波数の知識を必要とするため、あまり魅力的ではありません。しかし、2番目の方法も同様です。適切なウィンドウの長さを選択する必要があります。 他の方法はありますか?
11 filters  noise 

1
F2F信号からのノイズの除去
(この質問は、生のWAVからのバイナリ磁気ストリップカードデータの抽出に関連しています) クレジットカードの磁気ストリップからバイナリシーケンスを抽出しています。 ご覧のとおり、信号は1か所ではっきりと劣化しています。また、画像の左側に小さな劣化があります。 IIRを使用するだけで(つまり、)、平滑化されますが、結果の信号は数学的に滑らかではありません。信号を2、3回微分すると、ノイズは復讐で戻ってきます。Xout=0.9Xoutlast+0.1XinXout=0.9Xoutlast+0.1XinX_{\rm out} = 0.9X_{\rm out_{last}} + 0.1X_{\rm in} 私の質問は、デリバティブがきれいになるような方法でノイズを取り除くことはできますか? もしそうなら、どうですか? 編集:ここにいくつかの破損した波のクローズアップがあります: 編集(2): 私が検討しているいくつかのアプローチ: 最初に、損傷したセクターのいずれかの側で信号のテイラー近似を行い、近似をブレンドすることができます。 次に、FFT、高周波成分の除去、FFTの逆変換を行うことができます。では、2つ目のアプローチを試してみましょう...
11 fft  noise 

1
カルマンフィルター-ノイズ共分散行列の理解
カルマンフィルターフレームワークにおけるノイズ共分散行列の重要性は何ですか? 私が言及しているのは: プロセスノイズ共分散行列Q、および 測定ノイズ共分散行列R いつでもステップt。 これらの行列をどのように解釈しますか?彼らは何を表していますか?彼らは、ある観測のノイズが状態ベクトルの別の観測のノイズに対してどのように変化するかについて話しますか?

1
音声認識のノイズリダクションは、人間の音声をより「わかりやすく」するためのノイズリダクションとどう違うのですか。
これは、主に既存の音声認識システムのノイズ低減に取り組んでいるため、しばらくの間興味を持っていた質問です。 ノイズリダクションテクニックに関するほとんどの論文は、音声を人間にとってよりわかりやすくする方法、または「音声品質」などのあいまいな用語を改善する方法に焦点を当てているようです。 このような基準を使用すると、ノイズの多い音声信号を人間が聞き取りやすくするフィルターを特定できると思います。ただし、音声認識システムの精度を向上させるためにノイズ除去された音声信号を評価しようとするときに、これらの基準を単純に適用できるかどうかはわかりません。 この違いについて論じている論文は本当に見つかりません。音声了解度と音声品質は音声認識システムの精度と相関していますか?たとえば、元のクリーンな音声が与えられた場合に、ノイズ除去された音声信号が音声認識システムにとってどの程度「良い」かを評価できる客観的な指標はありますか?または、ノイズ除去技術がどれほど優れているかを調べる唯一の方法は、ノイズ除去されたデータで音声認識システムをトレーニングし、精度を調べることですか? 誰かが私を正しい方向に向けてもらえたら幸いです。前もって感謝します!


弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.