タグ付けされた質問 「frequency」

信号処理の周波数は、1秒あたりの(信号の)サイクル数です。

9
負の周波数の物理的意義は何ですか?
これは私のDSP理解のチェダーチーズブロックの穴の1つでしたが、負の周波数を持つことの物理的な解釈は何ですか? ある周波数で物理的なトーンがあり、それがDFTされている場合、正と負の両方の周波数で結果が得られます。これはなぜ、どのように発生しますか どういう意味ですか? 編集:2011年10月18日。私は自分で答えを提供しましたが、負の周波数が存在しなければならない理由の根を含むように質問を拡大しました。
83 frequency 


9
DFTまたはFFTなしで周波数を見つけるためのアルゴリズムはありますか?
Androidアプリストアでギターチューナーを探していました。他のアプリよりも高速だと主張するチューナーアプリを見つけました。DFTを使用せずに周波数を見つけることができると主張しました(この仕様へのURLがあればいいのに)。 私はこれを聞いたことがありません。DFTまたはFFTアルゴリズムを使用せずに、オーディオ信号を取得して周波数を計算できますか?
34 audio  fft  frequency  dft 

4
ウェーブレット変換はどの時間周波数係数を計算しますか?
高速フーリエ変換かかりしながら、動作を高速ウェーブレット変換をとるO(Nを)。しかし、具体的には、FWTは何を計算しますか?O(NlogN)O(Nlog⁡N)\mathcal O(N \log N)O(N)O(N)\mathcal O(N) それらはしばしば比較されますが、FFTとFWTはリンゴとオレンジのようです。私が理解しているように、STFT(経時的な小さなチャンクのFFT)と複雑なMorlet WTを比較する方が適切です。なぜなら、それらは両方とも複雑な正弦波に基づいた時間周波数表現であるからです)。多くの場合、これは次のような図で示されます。 (別の例) 左は、時間が経過するにつれてSTFTが積み重ねられた一連のFFTである様子を示しています(この表現はスペクトログラムの原点です)。右は、ダイアディックWTを示しています。低周波数での解像度(この表現はスカログラムと呼ばれます)。この例では、STFTのは垂直列の数(6)であり、単一のO(N log N ) FFT演算は、N個のサンプルからN 個の係数の単一の行を計算します。合計は、それぞれ6ポイントの8 FFT、または時間領域で48サンプルです。NNNO(NlogN)O(Nlog⁡N)\mathcal O(N \log N)NNNNNN わからないこと: 単一の FWT操作で計算される係数の数と、上記の時間周波数チャートのどこに位置していますか O(N)O(N)\mathcal O(N) 単一の計算で塗りつぶされる長方形はどれですか? 両方を使用して時間周波数係数の等面積ブロックを計算すると、同じ量のデータが出力されますか? FWTはFFTよりも効率的ですか? PyWaveletsを使用した具体例: In [2]: dwt([1, 0, 0, 0, 0, 0, 0, 0], 'haar') Out[2]: (array([ 0.70710678, 0. , 0. , 0. ]), array([ 0.70710678, 0. …
26 frequency  fft  wavelet 

3
オーディオのどの数学モデルが、(音色が複雑な)ポリフォニーの個々の音のピッチシフトを可能にしますか?
私の質問は次のとおりです。ポリフォニックアコースティック楽器の単一チャンネルのマルチボイスオーディオ録音で、個々の音符の変化(ピッチシフト)を可能にするポリフォニックサウンドの数学モデルは何ですか。「ポリフォニックオーディオのノートを変更する」とは、CeleonyのMelodyneソフトウェアのいわゆる「ダイレクトノートアクセス」機能でサウンドを編集するようなことを意味します。 ウィキペディアによると、Melodyneがアコースティック(したがって音色が複雑な)楽器で演奏される1行のメロディのオーディオ信号をモデル化するために使用するのは、ヘニングティーレマンが論文「モノフォニックサウンドの位相と時間のもつれを解く」で説明しているようなものですが、ポリフォニック楽器のオーディオ信号のモデルへの参照は見つかりません。Peter NeubackerのYoutubeのインタビュー(以下に転記)によると、ポリフォニックオーディオの編集を処理するMelodyneの機能には、Thielemannの説明とは異なるアプローチが必要です。 別のyoutubeクリップからの手がかりの1つは、ノイバッカーのモデルが1種類の楽器のみ(つまり、ピアノのみ、ギターのみ、弦のみ、風のみなど)のオーディオレコードでよりうまく機能することです。別の手がかりは、ノートのピッチをシフトするだけでなく、ノートの(開始および終了)タイミングもシフトする機能を示す別のクリップです。 以下は、「ポリフォニック素材には別のアプローチが必要」と述べたYouTubeビデオのトランスクリプトです(22:00から視聴する時間がない場合)。 Melodyneが発生した問題:このような[手で石を身振りで示す] 3次元形式からサウンドを取得するにはどうすればよいですか?それにより、音は連続時間への依存から解放されますか?この彫刻は、実際にこれから生まれたものです...それはプラスチックのかけらです...これは音楽データから直接派生しました。このオブジェクトは、この音を[リュートで音をたてて]います。このように、左から右に視覚化するのが最適です。時間はこの方向に進みます[左から右へのジェスチャー]。そして、それは振幅です(親指と反対の指で大きくも小さくもジェスチャーします)。私がそれを回すと、それは...任意のインスタンスでのこの音の音色を表します。ここでは、かなり三角形の構造[彫刻の下部​​の断面を指す]を非常に明確に見ることができます。それはこの音で、 Melodyneはまだ存在せず、サウンドをこの形状に変換する実験をしていたので、この1つのサウンドでほぼ1年間働きました。...私はこの音の内と外を心から知っています。これは、ローカルサウンドの良い例でもあります。[マウスをクリック]するだけでなく、任意のポイントのサウンドを入力し、好きなだけゆっくりとすばやく移動することもできます。音を残したり、前後に移動したりすることもできるので、ここで1か所を調べたら...回ります。... 10年前は新しいものでした。 最近、dna(直接メモアクセス)が追加されました。それにより、ポリフォニック音楽も編集できます。つまり、ギターの録音など、同時に聞こえる音を個別に編集できます。ここで小さなコードを演奏すると(画面で[ポリ]-> [音符を分離]を選択)、ここで演奏した3つの音符が個別のエンティティとして表示されます。もう一度聞いてみましょう[コンピューターはマイナーなコードを演奏します]。そして今、指をより高いフレットに移動するかのように、この1つの音を上げることができます[画面上の音を上にドラッグします。コンピューターが主要な和音を演奏する]。分割されたオーディオの場合、この1つのノートを分離し、任意のピッチに自由に上下させることができます。 以前は、この方法で複雑な素材内の個々のトーンを分離できなかったのはなぜですか?正直わかりません。科学では、自然な傾向は、単純なもの、たとえば正弦波、または個々の音で始まり、それを最初に分析して、材料がより複雑になるか、全体を処理する必要がある場合にのみシステムを検出することです動作しません。私のアプローチは異なります。私は実際には複雑な信号から始めますが、何かを詳細に調べたい場合にのみ、より単純な信号に戻りますが、最初に、実際に実際に何が起こっているのかについて全体的な印象を持たなければなりません。 秘密はおそらくこのロールにありますか?ふふ、これは実際にトイレットペーパーです。もともと石によって提起された問題は、どのようにして与えられた音を立体的な形に変換できるかということでした。ここでは、音の値をサンプリングする個人を配置しました。これは、ここでは1つ2つ3つで示され、螺旋状になっています。そして、ポイント間を補間すると[螺旋を横切る]、音の個々の断面を表す風景[彫刻の断面を示す]が現れます。 ロールは何歳ですか?12年間。その考えは、今日見たすべてのMelodyneの源泉です...?はい、しかし、音を巻き上げるこの方法は、ポリフォニック素材にはもはや使用できなくなり、異なるアプローチが必要になります。
24 frequency 

3
ガボールフィルターとは何か、その主な用途は何か
ガボールフィルターの研究を行っていますが、Googleで検索したとき、非常に長く複雑な記事がありました。誰でも簡単な説明を見つけたり、ウェブサイトや記事を読んで読んだりするのを手伝ってくれますか?Matlabで使用するために、このフィルターを理解したいと思います。

3
周波数対ウェーブレット変換の大きさをプロットするにはどうすればよいですか?
Morlet連続ウェーブレット変換を実行しています。私はwscalogram信号を受け取ったので、次の図のように周波数の大きさをプロットしたいのですが、どうすればいいのかわかりません。 scal2freqMATLAB関数を使用して、スケールを擬似周波数に変換しました。また、信号にいくつかの周波数があり、それらは大きな減衰比(4%)を持っているため、プロットではよく見えません。これらの非常に減衰したモードを誇張するにはどうすればよいですか? 私はMATLABを使用しています、ここに私のコードがあります: % Import the text4.txt to matlab workspace. and save it under name "data" t=linspace(0,30,301); Fs=ceil(inv(t(2)-t(1))); x=data(:,4); % use x=data(:,3),x=data(:,5) too. first column is time,second is refrence wname = 'morl'; scales = 1:1:256; coefs = cwt(x,scales,wname,'lvlabs'); freq = scal2frq(scales,wname,1/Fs); surf(t,freq,abs(coefs));shading('interp'); axis tight; xlabel('Seconds'); ylabel('Pseudo-Frequency (Hz)'); axis([0 30 0 …

4
人間に近い精度でリアルタイムにオーディオ信号の周波数成分を抽出する最も効率的な方法
私はFFTのような方法で任意のオーディオサンプル(通常は音楽)の周波数成分を抽出する方法を(可能であれば)解決しようとしていますが、FFTアルゴリズムの研究では、いくつかの問題があることを学んでいますこの目的のための厳しい制限。 FFTが提示する3つの問題があります。 FFTビン解像度はウィンドウサイズと同等であるため、かなり妥当な精度(1 Hzなど)を達成するには、不当に長いウィンドウ(1秒など)が必要です。これは、トランジェントまたは新しく導入された周波数をすばやく検出できないことを意味します。また、より高速なCPUとより高いサンプルレートでは問題を解決できないことを意味します。制限は本質的に時間に関係しています。 人間は周波数を対数的に知覚しますが、FFTビンは直線的に間隔が空けられます。例えば私たちの公聴会のローエンドでは20Hzの違いがある巨大なハイエンドでは20Hzの差が知覚できないのに対し、。したがって、低周波数で必要な精度を得るには、高周波数で必要なものよりもはるかに多くを計算する必要があります。 これらの問題の一部は、FFTビン間を補間することで解決できます。これは、多くの音楽オーディオで機能する場合があります。これは、周波数が非常に離れていることが多く、1つの周波数しかビンのペアに漏れないためです。しかし、特にパーカッシブな楽器のような不協和音の場合、これは必ずしも当てはまりません。したがって、補間は実際には単なる当て推量です。 DFT / FFTアルゴリズムの理解から、出力(ビンの振幅)は事実上、各ビンの周波数でのサイン/コサインの相関です。ビンの周波数が非線形に間隔を空けるようにアルゴリズムを再設計できると(つまり、異なるサイン/コサインのセットを相関させると)、すべての周波数で音響心理学的に等しい解像度を達成できると思います。これは可能ですか、それとも関係する数学の私の不完全な理解に基づく空想ですか? 興味のあるすべての周波数でサイン/コサインを相関させることで、ブルートフォースで問題を解決することもできたと思います。これは可能ですか?どのような効率ですか?問題は解決しますか? 信号のより正確でリアルタイムの周波数分解を実現する別の方法はありますか?CPUの効率は懸念事項ですが、大きな懸念事項ではありません-理論的にはまったく実行できるかどうかに部分的に興味があります。ただし、最新のデスクトップマシンでリアルタイムで実行可能なものが理想的です。

1
MUSICを介して固有ベクトルを使用して信号の基本周波数を推定する方法について
環境: (免責事項:これは通信の問題ではありません)。 実際の周期信号の基本周波数を推定しようとしています。この信号は、生信号とパルスの信号を一致フィルタリングすることにより作成されました。(マッチドフィルター)。結果の信号には、次の特性があります。 定期的です。(基本は1 /期間)、これは私が推定しようとしているものです。 時間的には非定常です。具体的には、周期的パルスの振幅は振幅が異なります。(例えば、あるパルスが低く、別のパルスが高く、次のパルスが再び低く、その媒体の後に続くなど)。 私は、周波数が変化しないことを信じています(変化する振幅を受け入れますが、変化する帯域は受け入れません)。 高調波歪みがあります。ここで私が意味しているのは、(間違っている場合は修正してください)、しかし、信号内の個々のパルスは正弦波ではなく、ガウス、三角形のような、半放物線などの「ファンキーな」形状です。 この信号の基本周波数を推定しようとしています。 もちろん、生の信号はノイズに過ぎない場合もありますが、それでもパスを通過し、とにかく一致フィルター処理されます。(これについては後で説明します)。 私が試したもの: 今、私は次のような多数の基本周波数推定量を知っています。 自己相関法 YIN、およびそのすべての依存関係 FFTメソッド。 等、 YIN:YINはまだ試していません。 FFT方式:FFT方式は、すべての高調波と基本波を提供しますが、基本波は常に最高のピークではないため、特にこの非定常的なビジネスでは細心の注意を払う必要があることに気付きました。非常に迅速に、多くのピークのどれが基本であるかを確認しようとしていることに気づき、それは難しい問題になります。 自己相関:自己相関法はFFT法よりも優れているようですが、それでも時間領域信号の振幅の不規則性に敏感です。自己相関法は、中心ローブから次に高いローブまでの距離を測定します。その距離は基本に対応します。ただし、非定常の場合、このセカンダリローブは非常に低くなる可能性があり、しきい値設定スキームで見落とす可能性があります。 その後、MUSICのような部分空間法を使用して基本波を推定できる可能性があることに気付きました。これをテストすると、信号の基本波に対応する周波数で、非常に優れた結果が得られることがわかりました。(探している信号の数を2に設定すると、基本波が取得されます。つまり、信号の共分散行列の(固有値の最大値に対応する)最も高い2つの固有ベクトルが選択され、破棄され、残りの部分空間からノイズ部分空間を作成し、それらに対して複合複素正弦波を投影し、逆数を取得し、素敵な擬似スペクトルを作成します)。 質問と問題: そうは言っても、なぜこれがうまくいくのかを理解したいと思います。 MUSICでは、信号部分空間を破棄し、雑音部分空間を使用します。信号部分空間の固有ベクトルは、実際にはある種の「最適な」ものであるように思えます-実際、それらは最適な整合フィルターです。だから、なぜ信号部分空間固有ベクトルを直接使用しないのですか?(私はもう音楽ではないことを知っていますが、なぜノイズ部分空間を使用するのが良いですか?) 最後に、最後の問題は、この方法が非定常信号(上記で定義)に対してはるかに堅牢に動作するように見えますが、問題は、システムにノイズしか存在しない場合でも、常に答えが得られることです!(前に述べたように、事前にフィルター処理された生のフィルター処理された信号は、周期的な信号が存在しない場合にホワイトノイズになることがあります)。 これに対抗するにはどのような方法がありますか?固有値を調べてみましたが、信号が存在する場合とノイズが存在する場合の減衰には、より多くの「曲率」がありますが、十分に堅牢でない可能性があります。 ボーナス: 共分散行列の固有ベクトル対他の何かはいつですか?それらが正弦波であるかどうかを決定するものは何ですか?なぜ方形波ではないのですか?または、ここに他の形状の信号を挿入しますか?

2
離散信号が周期的かどうかを判断するにはどうすればよいですか?
一連のデータが定期的かどうかを判断する方法を知りたい。 フーリエ変換/シリーズを使用したい。データが非周期的に見える [111100001111000110010101010000101] または定期的に [11001100110011001100] そして、それが自動的にどちらであるかを決定する必要があります。信号が周期的かどうかを判断するために、どのような種類の分析または計算を実行できますか?


2
ノイズの多い.wavファイルでドラムbpmを検出する
次の問題を解決するためのアルゴリズムを探しています:ノイズの多い.wavサウンドキャプチャ(マイクの風+摩擦音)がある場合、ソフトドラムビートのBPMを検出する方法は? 対象をグーグルで検索しようとしましたが、分析と指紋ID生成の両方のためのmp3関連ソフトウェアが大量にあるため、結果はかなり貧弱です。それらのどれも実際にそれを行う方法に関する情報を提供しません。 ノイズを除去するアルゴリズムは知っていますが、それでもBPMを検出する問題が残ります。また、BPMの問題の解決方法によっては、ノイズを除去する必要さえない可能性があります(ドラムは低周波数になり、ノイズは高周波数になる傾向があるため、単純なローパスで十分な前処理が可能です)。

2
フーリエ変換の表記法と表記法の選択?
大学で学んだフーリエ変換と逆フーリエ変換の定義は F (T )= 1F(jω)=∫∞−∞f(t)e−jωt dtF(jω)=∫−∞∞f(t)e−jωt dt F(j\omega) = \int_{-\infty}^{\infty} f(t) e^{-j\omega t}\ dt f(t)=12π∫∞−∞F(jω)ejωtdωf(t)=12π∫−∞∞F(jω)ejωtdω f(t)=\frac{1}{2\pi}\int_{-\infty}^{\infty}F(j\omega)e^{j\omega t} d\omega この条約の顕著な特徴は 非ユニタリ変換。周波数領域の単位はラジアンです(変数は)ωω\omega 「時間領域」の単位は時間です(変数は)ttt 関数変換は大文字で示されます(対f)FFFfff でのF (jはωが)厳しく関数はフーリエ変換であることを示し、jjjF(jω)F(jω)F(j\omega) そしてもちろん、j = √である通常のEE規則。j=−1−−−√j=−1j=\sqrt{-1} 最近では、本質的にはウィキペディアで使用されているものとは大きく異なる規則を使用し ています。 F(X)=∫ ∞ - ∞ F(ξ)EJ2πξXDξ この条約の特性はf^(ξ)=∫∞−∞f(x)e−j2πξxdxf^(ξ)=∫−∞∞f(x)e−j2πξxdx \hat{f}(\xi) = \int_{-\infty}^{\infty} f(x) e^{-j2\pi\xi x}dx f(x)=∫∞−∞f^(ξ)ej2πξxdξf(x)=∫−∞∞f^(ξ)ej2πξxdξ f(x) = \int_{-\infty}^{\infty} \hat{f}(\xi) e^{j2\pi\xi x} d\xi ユニタリ変換; …

3
(実際の)正弦波のトーンとパルスの帯域幅はどれくらいですか?
次の帯域幅を計算する方法を教えてください。 一定の(実際の)正弦波のトーン (実際の)正弦波パルス。 質問はそれと同じくらい簡単ですが、一定のトーンの帯域幅を正確に何から始めるべきか、そしてそこから、パルスの帯域幅がどうあるべきかという概念に苦労しています。 周波数領域では、周波数一定の実音は、とある2つのデルタ関数として存在しますが、その帯域幅を計算するにはどうすればよいでしょうか。f − fffffff−f−f-f さらに、パルスに関しては、これは時間的には長方形の関数なので、周波数領域ではsincであるため、その帯域幅は単純にではなく、はパルスの持続時間ですか? T1T1T\frac{1}{T}TTT

3
特定の周波数範囲のFFT。
信号を周波数領域に変換したいのですが。望ましい周波数範囲は0.1 Hzで1 Hzあり、周波数分解能は0.01 Hzです。 のサンプリングレートでは30 Hz、FFTは最大15 Hzの周波数成分を提供します。サンプリングレートを上げると、周波数分解能が向上します。ただし、FFTはより広い周波数範囲を提供します。私の場合、私がしたいの0.1 Hzは1 Hz、FFTが15 Hz(追加の計算)をあきらめることです。 私の質問は、特定の周波数範囲と高分解能で信号の周波数領域を計算できる標準的な方法はありますか?
11 fft  frequency 

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.