信号処理

信号、画像およびビデオ処理の芸術および科学の実務家のためのQ&A

4
基本周波数とそのすべての高調波を自動的に識別して削除するにはどうすればよいですか?
削除したいハートビートアーティファクトで汚染された顕微鏡データがあります。データは、約60Hzでキャプチャされた大量の時系列画像で構成されています。 GIF形式の小さなサンプルクリップを次に示します。 時間の経過に伴う平均ピクセル強度を取得し、ウェルチ法を使用してピリオドグラムを計算しました。 ご覧のように、〜1.8Hzに鋭いピークがあり、心拍数(〜108ビート/分)に対応する可能性があります。また、1.8Hzの整数倍に多数の調和ピークがあります。正確な心拍数はデータセットごとに異なる可能性がありますが、ピリオドグラムの影付きの領域で示されているように、生物学的にもっともらしい範囲を指定できます。 私ができるようにしたいのは: 心拍に対応する基本周波数とそのすべての高調波を自動的に検出します 基本波とすべての高調波を除去するようにデータをフィルタリングします。 現時点では、ピリオドグラムで最大のピークを見つけ、それをで乗算することにより、ポイント1を非常に大まかに解くことができは、調和ピークの推定数ですが、このハックよりも良い方法である。1 、2 、。。。、N1,2,...,N1, 2, ..., NNNN ポイント2に関しては、コムフィルターを使用して基本波とそのすべての高調波を削除することについて言及しているこの質問に出くわしました。これは使用するのに最適な方法ですか?重要な考慮事項の1つは、大きな配列の各ピクセルの時系列にフィルターを適用する必要があるため、計算効率の高い方法が非常に望ましいことです。 データの例 ここに、.csvフォーマットの平均ピクセル値の例の1D時系列をアップロードしました。 ここでは、圧縮.matファイルに1000フレームのサンプル(空間的に2:1に間引かれた)も追加しました


3
加速度計データを分類する方法は?
iPhoneの加速度計を使用して、車が加速したかブレーキをかけたかを検出しようとしています。 下の図では、収集したデータをプロットしています。(データを収集するために、電話は、車の中で、電話の上部を正面に向けて平らに置いていました)。 私が今持っている問題は、車が加速した場所とブレーキをかけた場所を視覚的にはっきりと確認できることです(以下を参照)。しかし、プログラムでそれを行う方法を理解することはできません。 基本的に私が欲しいのは、特定の時間帯に車がブレーキまたは加速した頻度を知ることです。(ウィンドウサイズは約10〜30秒)。 任意の助けをいただければ幸いです。 前もって感謝します!

1
色付きノイズが存在する場合の最尤推定
測定ノイズ(1)ホワイトガウスノイズ(2)カラーノイズ-ピンク、バイオレットの存在下でシステムの識別をテストしようとしています。パラメータを推定するとき、iidの存在下で推定すると、ゼロは無相関ノイズを意味します。 Q1:色付きノイズが相関しているかどうか知りたいのですが。それらは異なる分布をしていると思いますが、サンプルが相関するかどうかについては、情報を見つけることができませんでした。 Q2:推定では、ノイズは相関のないiidである加法性ホワイトガウスノイズであると想定しています。ノイズがガウスでない場合はどうなりますか?例:x = s (θ )+ Co l o r e dN O I S Eバツ=s(θ)+Coloredんo私sex = s(\theta) + Colored noise 見積もろうとしているところ θθ\theta。パフォーマンス、つまりMSEは、色付きノイズと色なしノイズのレベルによって異なりますか?

1
DWTを使用した特徴の抽出/削減
nタイムスタンプの長さの特定の時系列に対して、(「Haar」ウェーブレットを使用して)離散ウェーブレット変換を実行し、次に取得します(たとえば、Pythonで)- >>> import pywt >>> ts = [2, 56, 3, 22, 3, 4, 56, 7, 8, 9, 44, 23, 1, 4, 6, 2] >>> (ca, cd) = pywt.dwt(ts,'haar') >>> ca array([ 41.01219331, 17.67766953, 4.94974747, 44.54772721, 12.02081528, 47.37615434, 3.53553391, 5.65685425]) >>> cd array([-38.18376618, -13.43502884, -0.70710678, 34.64823228, -0.70710678, 14.8492424 , -2.12132034, 2.82842712]) …

4
不安定性は、そうでなければLTIシステムを非線形(または時変)にしますか?
私はこの質問をジョニーからの質問から引き離しています。マットL.と私は、ジョニーの質問に対して正反対の結論を出しました。 私はこの問題を因果関係の問題や他の間抜けなものから切り離したいと思います。 したがって、時間領域のI / O方程式で記述された単純な1次の再帰システムがあります。 y[n]=p⋅y[n−1] + x[n]∀n∈Zy[n]=p⋅y[n−1] + x[n]∀n∈Z y[n] = p \cdot y[n-1] \ + \ x[n] \quad \quad \forall n \in \mathbb{Z} もちろん、これのZ変換は Y(z)=p⋅z−1Y(z) + X(z)Y(z)=p⋅z−1Y(z) + X(z) Y(z) = p \cdot z^{-1} Y(z) \ + \ X(z) と伝達関数 H(z)≜Y(z)X(z)=zz−pH(z)≜Y(z)X(z)=zz−p H(z) \triangleq \frac{Y(z)}{X(z)} = \frac{z}{z-p} 私たちは、通常でゼロとシンプルかつ実現可能LTIシステムとしてこれを識別するとの極。しかし、他の質問では、場合の線形性と時間不変性に関する問題があります。000pppp=−1 p=−1 …

1
音声と音楽の変化を検出する
音声部分と音楽部分の両方を含むオーディオファイルがたくさんあります(ラジオなど)。たとえば、特定のファイルは次のセクションで構成される場合があります。 music --- speech --- music --- speech --- music --- speech --- music 私の目標は、ファイルが音楽と音声の間でいつ変更されるかを検出し、音声部分だけを残して音楽部分を切り取ることです。ただし、音声と音楽を区別するためにどのような方法を使用するかはわかりません。テンポを検出することを検討していましたが、一部の音楽が非常に遅いか、テンポが変化しています。 (私たちがそれをしている間、私が自分で書く必要がないように、音声と音楽を区別できる既存のソフトウェアライブラリはありますか?)

4
周波数ワーピングのないオーディオEQクックブック
有名なhttp://www.musicdsp.org/files/Audio-EQ-Cookbook.txtは、通常は問題なく動作する一連の[実際の]バイクアッドフィルター計算式を提供します。 ただし、フィルターの周波数がナイキスト周波数に近づくと、フィルターのQ(帯域幅)仕様が大幅に歪みます。 私は、このような強い帯域幅の歪みのないフィルター式を探しています。ピーキング/ベル、バンドパス、ローパス、ハイパス、ハイシェルフ、ノッチフィルターが必要です。これは、以前に歪みの少ないピーキング/ベル/バンドパスフィルター式を購入したのと同じように実行できることを知っていますが、まだ完全ではなく、他のフィルタータイプが必要です。 したがって、価格が適切であれば、私もソリューションの代金を支払う用意があります。 あるいは、Zドメインフィルターで動作する最適化アルゴリズムを紹介してくれたら、それもすばらしいでしょう。残念ながら、ほとんどの通常の最適化アルゴリズムはZ領域ではうまく機能しません-(おそらく周波数応答の計算に使用される周期関数が原因で)望ましい周波数応答に一致するようにパラメーターのセットを最適化できません。

1
信号の固有値と固有ベクトル
信号または関数の固有値と固有ベクトルは何を表していますか?その物理的な意味は何ですか?信号投影が表現される直交平面を構成する信号の基底ベクトルについて知っています。基底ベクトルと固有ベクトルは同じものですか?これらの固有ベクトルを使用して信号を再構成できますか?

3
信号の周期がわかりません
一定速度のモーターの音であるノイズの多い信号があるので、音は周期的でなければなりません。周期を取得するために自己相関関数を使用する方法があることはわかっていますが、それを行いましたが、期間がわかりません。信号と自己相関の結果の下でそれを行う方法のアイデア:信号 自己相関の結果:

2
DFTとZ変換の違い
私はこの質問を検索しましたが、このネットワークで答えを見つけることができませんでした。これはDSPの初心者にとって非常に混乱する質問であることは知っています。DFTとZ変換の両方が離散信号に対して機能します。「Z変換はDFTの一般的なケースです。単位円を考えると、Z変換は離散フーリエ変換(DFT)になります」と読みました。これは何を意味するのでしょうか?わかりました、数学的検証は理解できますが、これの物理的な意味は何ですか?これがDSPの分析にどのように影響しますか?

1
オーディオ信号処理の前提条件
私はオンラインでDSPコースを開始し、信号処理のより高度な数学を回避することが可能であると言う人がいるのと同じように、これはそうではなかったとすぐに気付きました。 微積分と確率理論のしっかりとした理解が主題を適切に把握し、オーディオ分野でそれを使って創造的になることができるように必要であるようです。 微積分のどの部分が主にdspに使用されますか?除外できる部品はありますか?
7 audio 


3
フーリエ変換またはSTFTでウィンドウを狭くすると、周波数分解能が低下するのはなぜですか?
FT(フーリエ変換)とSTFT(短時間フーリエ変換)の理論では、 「ウィンドウが広いと周波数分解能は高くなりますが、時間分解能は低くなります。ウィンドウが狭いと時間分解能は高くなりますが周波数分解能は低くなります」 誰かが狭いウィンドウが低い周波数分解能を与える理由を説明できますか?
7 fft  wavelet 

1
一連のムービーフレームから正弦波アーティファクトを削除する
非常に周期的なアーチファクトによって汚染された一連のムービーフレームで構成されるデータセットの事後分析を行っています。このアーティファクトをフレームから削除したいと思います。 プロットを簡単にするためにM、ピクセル値の配列をに再形成し、[nframes, npixels]すべてのピクセル値を平均して1Dベクトルを作成しましたm。以下は、この信号が時間領域でどのように見えるかです。拡大されたインセットでは、振動がはっきりとわかります。 次に、を使用してピリオドグラムを作成し、周波数に対してFm = rfft(m)プロットabs(Fm)**2しました。約1.5 Hzに非常に鋭いピークが見られます。 時間の周期性だけでなく、このアーチファクトの空間成分も弱いようです。正確なピーク周波数値では、フレームのx軸全体で位相が滑らかに変化するように見えるため、右は左のピクセルより遅れる傾向があります: 力ずくのアプローチとして、1.5Hzを中心とするノッチフィルターを使用して、時間領域の各ピクセルをフィルターに掛けてみました。臨界周波数1.46および1.52Hzの4次バターワースフィルターを使用しました(フィルターの設計に精通していないため、より適切な選択肢があると確信しています)。 フィルタリング後の平均ピクセル信号は次のようになります。 そして対応するピリオドグラム: ノッチフィルターは、アーティファクトを減らすのにかなり良い仕事をしますが、基本的には純粋な定常正弦波のように見えるので、周波数空間のその部分を単に減衰させるよりも上手く行けると思います。 私の最初の(非常に素朴な)アイデアは次のようなことをすることでした: ムービーの各ピクセルのフーリエスペクトルから振動の周波数、位相、振幅を取得します 時間領域で振動を再構築する 映画のフレームからそれを引く 干渉は通常スペクトル的に純粋ではなく、一時的に静止していないため、これは通常人々が行うことではないことを理解していますが、私の場合はそれが理にかなっているのではないでしょうか。 データ フル16ビットTIFFスタック(非圧縮2GB以下) 空間的に間引かれた8ビットバージョン(約35MB非圧縮)

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.