タグ付けされた質問 「sampling」

信号処理では、サンプリングは、連続ドメイン信号を離散ドメイン信号に変換することです。

3
曲線間の一致を測定する方法は?
測定したRSSI値と比較したい、予想されるRSSI値の経時的な値(以下にプロット)があります。私が探していたのは、それを定量化してパラメーターを変更し、さまざまなアプローチを比較/対比できるようにする方法でした。 信号を比較する方法がわかりませんが、信号の大規模(全体的な形状)と小規模(個別の変動)を考慮に入れるため、これは私の心の中で難しい問題です。 たとえば、以下は1セットの信号のプロットです。 画像では、赤い測定信号がおおまかにモデルに従っていることを確認できますが、モデルの正弦波品質のいくつか(一部の場所)をシミュレートするOKジョブも実行しています。何かご意見は? <>ピシェネットのコメント(妥当と思われる)に応じて、2つの値のdiffをとり、abs(fft(diff))をプロットして、次のようにしました。 私はそれをどうするかわかりません。実際の周波数はないため、軸をスケーリングする方法がわかりません。その場合、どのメトリックを使用しますか?

1
周波数を
MATLABでは、フィルターを設計するためにカットオフ周波数を渡す必要があります。ただし、このカットオフ周波数はサンプルあたりのラジアンです。アナログカットオフ周波数を、MATLABに必要なラジアン/サンプルに変換するにはどうすればよいですか? HzHz\textrm{Hz}
11 matlab  sampling 


1
コヒーレントサンプリングの量子化ノイズ-位相ノイズ?
更新:この投稿の下部にある追加の考えを参照してください。 以下に説明されているものに制約されない一般的なサンプリング条件(サンプリングクロックに相関のない信号)の下では、量子化ノイズは、多くの場合、1つの量子化レベルにわたる均一な分布として推定されます。2つのADCをIおよびQパスと組み合わせて複雑な信号のサンプリングを作成すると、量子化ノイズには、以下にシミュレーションするように、振幅と位相の両方のノイズ成分があります。示されているように、信号が45°の角度にある場合など、I成分とQ成分が振幅と位相に等しく寄与する場合、このノイズは三角分布を持ち、信号が軸上にある場合は均一になります。これは、各IとQの量子化ノイズが無相関であるために予想されるものであり、両方が出力結果に寄与しているときに分布がたたみ込みます。 質問されるのは、コヒーレントサンプリングの場合に位相ノイズのこの分布が大幅に変化するかどうかです(サンプリングクロック自体にはるかに優れた位相ノイズがあり、要因ではないと想定しています)。具体的には、コヒーレントサンプリングが量子化関連の位相ノイズを大幅に削減するかどうかを理解しようとしています。これは、コヒーレンシを簡単に維持できるクロック信号生成に直接適用できます。 実際の信号(1つのADC)または複雑な信号(2つのADC、1つはI用、もう1つは1つの複雑なサンプルを表すQ用)の両方を検討してください。実際の信号の場合、入力はフルスケールの正弦波であり、位相項は解析信号から導出されます。正弦波トーンのゼロ交差の変化に関連するジッタは、実際の信号の結果として生じる位相ノイズの例です。複素数信号の場合、入力はフルスケールで、実数部と虚数部はそれぞれフルスケールの正弦波になります。AejωtAejωtAe^{j \omega t} これは、コヒーレントサンプリングがよく説明されているこの質問に関連していますが、位相ノイズについては特に言及されていません。 コヒーレントサンプリングと量子化ノイズの分布 誘導されたAMおよびPMノイズ成分をより明確に説明するために、以下の図を追加しました。次の図は、特定のサンプリング瞬間で連続時間の複素ベクトルを示す複素量子化の場合と、線形の仮定として、関連する量子化サンプルを赤い点として示しています。信号の実数部と虚数部の量子化レベルの均一な分布。 上の図で量子化が発生する場所を拡大して、誘導された振幅誤差と位相誤差を示します。 したがって、任意の信号が与えられます s(t)=a(t)ejωt=a(t)cos(ωt)+ja(t)sin(ωt)=i(t)+jq(t)s(t)=a(t)ejωt=a(t)cos⁡(ωt)+ja(t)sin⁡(ωt)=i(t)+jq(t)\begin{align} s(t) &= a(t) e^{j\omega t} \\ &= a(t) \cos(\omega t) + j a(t) \sin(\omega t) \\ &= i(t) + j q(t) \\ \end{align} 量子化された信号は、 sk=ik+jqksk=ik+jqks_k = i_k+ j q_k ここで、およびは、それぞれ以下に従ってマップされた量子化されたIおよびQレベルを表します。ikiki_kqkqkq_k Q{x}=Δ⌊xΔ+12⌋Q{x}=Δ⌊xΔ+12⌋ \mathcal{Q}\{x\} = \Delta \Bigl \lfloor \frac{x}{\Delta}+\tfrac{1}{2} \Bigr …
9 sampling  adc 

3
ゼロ、ファースト、セカンド…n次ホールド
方形関数は次のように定義されます: rect(t)=⎧⎩⎨⎪⎪⎪⎪0121if |t|&gt;12if |t|=12if |t|&lt;12.rect(t)={0if |t|&gt;1212if |t|=121if |t|&lt;12.\mathrm{rect}(t) = \begin{cases} 0 & \mbox{if } |t| > \frac{1}{2} \\ \frac{1}{2} & \mbox{if } |t| = \frac{1}{2} \\ 1 & \mbox{if } |t| < \frac{1}{2}. \\ \end{cases} 三角関数は次のように定義されます: tri(t)={1−|t|,0,|t|&lt;1otherwisetri⁡(t)={1−|t|,|t|&lt;10,otherwise\operatorname{tri}(t) = \begin{cases} 1 - |t|, & |t| < 1 \\ 0, & \mbox{otherwise} …

3
レーダーアプリケーションの大規模アレイ向けの実用的な広帯域デジタルビームフォーミング
デジタルビームフォーミングの背後にある数学は理解していますが、そのようなシステムが実際にどのように実装されているのかはわかりません。たとえば、Sバンドで動作する一般的なワイドバンドFMCWレーダーでは、(ベースバンド)パルス帯域幅は500MHzにもなることがあります。この信号をデジタル化するには、高速ADC、通常1GHzのサンプリング周波数が必要です。私の知る限り、これらのADCは安価ではありません。 ここで、20個のアンテナエレメントを備えたUniform Recular Array(URA)があるとしたら、RFフロントエンドを20回複製する必要があります。このRFフロントエンドには、通常、LNA、ミキサー、および高速ADCが含まれます。 さらに、上記のシステムで生成される膨大な量のデータは非常に大きく、大容量のメモリと処理能力を必要とします。 私の質問はこうです: 上記のシナリオは、実用的なビームフォーミングシステムがどのように実装されているかを反映していますか、それともあまりにも単純すぎますか?ここで基本的な何かが欠けていますか? そのようなシステムでハードウェアまたは処理の要件を減らすのに役立つハードウェア/信号処理のトリックはありますか? ありがとう

3
ディラック関数のサンプリング
ディラック関数に関する理論的な質問をしたいと思います。ディラック関数のフーリエ変換は、すべての周波数に対して値1(DC)です。サンプリング定理を考える場合、サンプリングできるように、信号で最大周波数を見つける必要があります。しかし、フーリエ変換からわかるように、ディラック関数にはすべての周波数が含まれているため、適切な見つけることができません。私の質問は、理論的な観点から、ディラック関数をサンプリングできるかどうかです。 F S ≥ 2 F M A X F S fmは、Xが fmax \ f_{max} fs≥ 2 F mは、Xが fs≥ 2fmax \ f_s \ge \ 2f_{max}fsfs f_s 編集:役立つ回答をお寄せいただきありがとうございます。
9 sampling 

3
エイリアス周波数の式
私のMSc Computer Scienceでマルチメディアシステムクラスを受講しています。エイリアス周波数の式を理解するのに問題があります。これは、エイリアス信号の誤解に起因する可能性があります。 エイリアス信号についての私の理解は、入力信号をアンダーサンプリングする場合(つまり、最大周波数の2倍未満のレートでサンプリングする場合)、高周波の詳細をキャプチャするのに十分な頻度でサンプリングしていないため、エイリアシングが発生する可能性があるということです。エイリアシング信号は、これらのサンプル値を取得し、それらを滑らかな曲線で結合した結果です。 したがって、生成される信号の周波数はサンプリング周波数の半分になります。これは、純粋な正弦波が1振動あたり2つのサンプルを必要とするためです(各分岐点に1つ)。これは、エイリアス周波数がサンプリング周波数の関数になることを意味します。 エイリアス周波数の式は、信号周波数とサンプリング周波数の最も近い整数倍の絶対差です-誰かがこれを私に説明できますか?前もって感謝します!

1
2つのスペクトル間のサブピクセルシフトを直接比較し、信頼できるエラーを取得
同じ天体の2つのスペクトルがあります。重要な質問はこれです:これらのスペクトル間の相対的なシフトを計算して、そのシフトで正確なエラーを取得するにはどうすればよいですか? まだ私と一緒にいるなら、もう少し詳しく。各スペクトルは、x値(波長)、y値(光束)、および誤差を持つ配列になります。波長シフトはサブピクセルになります。ピクセルが等間隔に配置されており、スペクトル全体に適用される波長シフトが1つだけであると仮定します。したがって、最終的な答えは、0.35 +/- 0.25ピクセルのようなものになります。 2つのスペクトルは、簡単にモデル化できない(そして周期的ではない)かなり複雑な吸収特性(ディップ)によって区切られた、多くの特徴のない連続体になります。2つのスペクトルを直接比較する方法を見つけたいのですが。 すべての人の最初の本能は相互相関を行うことですが、サブピクセルシフトを使用すると、スペクトル間を補間する必要があります(最初にスムージングすることによって?)。また、エラーが正しくなるには厄介なようです。 私の現在のアプローチは、ガウスカーネルとのたたみ込みによってデータを平滑化し、平滑化された結果をスプライン化し、2つのスプライン化されたスペクトルを比較することですが、信頼できません(特にエラー)。 これを正しく行う方法を誰かが知っていますか? これは、0.4ピクセルだけシフトされた2つのおもちゃのスペクトル(toy1.asciiおよびtoy2.asciiで書き出されます)を生成する短いpythonプログラムです。このおもちゃのモデルは単純なガウス機能を使用していますが、実際のデータは単純なモデルでは適合できないと想定しています。 import numpy as np import random as ra import scipy.signal as ss arraysize = 1000 fluxlevel = 100.0 noise = 2.0 signal_std = 15.0 signal_depth = 40.0 gaussian = lambda x: np.exp(-(mu-x)**2/ (2 * signal_std)) mu = 500.1 np.savetxt('toy1.ascii', zip(np.arange(arraysize), np.array([ra.normalvariate(fluxlevel, …

3
アンダーサンプリング後のエイリアシングを防ぐためのアンチエイリアスプレフィルターとは何ですか?
アンダーサンプリングの結果、エイリアシングが発生し、ナイキストレートの半分より高い周波数は区別できないことがわかっています。ナイキストレートの半分よりも高い周波数(ナイキスト周波数)と低周波数(すべての部分)を使用したいベースバンド信号があります。私はこのパスで特別なプロセスを持っています: Input⟶anti-aliasing pre-filter⟶decimate⟶FFT⟶tune on special partof the signalInput⟶anti-aliasing pre-filter⟶decimate⟶FFT⟶tune on special partof the signal\textrm{Input}{\longrightarrow}\boxed{\textrm{anti-aliasing pre-filter}}{\longrightarrow}\boxed{\textrm{decimate}}{\longrightarrow}\boxed{\textrm{FFT}}{\longrightarrow}\boxed{\textrm{tune on special part}\\{\textrm{of the signal}}} 人々が通常アンチエイリアシングフィルターとして使用するローパスポストフィルターは、私にとって重要な高周波を除去します。高周波を失わないデジタルまたはアナログのアンチエイリアシングプレフィルターとは何ですか。

2
勾配ベースのハフ変換を実装する方法
私はエッジ検出にハフ変換を使用しようとしています、そして基礎として勾配画像を使用したいと思います。 私はこれまでやっていること、画像所与のIサイズの[M,N]とその偏導関数gx、gy、各画素の勾配角度を計算することですthetas = atan(gy(x,y) ./ gx。同様に、勾配の大きさをとして計算しmagnitudes = sqrt(gx.^2+gy.^2)ます。 ハフ変換を作成するには、次のMATLABコードを使用します。 max_rho = ceil(sqrt(M^2 + N^2)); hough = zeros(2*max_rho, 101); for x=1:M for y=1:N theta = thetas(x,y); rho = x*cos(theta) + y*sin(theta); rho_idx = round(rho)+max_rho; theta_idx = floor((theta + pi/2) / pi * 100) + 1; hough(rho_idx, theta_idx) = hough(rho_idx, theta_idx) + …

2
圧縮センシングとスパースコーディング
明らかに、「圧縮センシング」と呼ばれる同じフィールドを参照するために使用される異なる用語があります(このWikiページを参照):圧縮センシング、圧縮サンプリング、またはスパースサンプリング。「スパースセンシング」についてはどうでしょうか。 それにもかかわらず、インターネット検索の結果、「スパースコーディング」と呼ばれるものは、上で引用した他の用語の「圧縮センシング」フィールドを指していないようです。 圧縮センシングとスパースコーディングの違いは本当にありますか? 辞書学習についてはどうですか?

3
帯域制限された信号のサンプリング中に、サンプリングインスタンス間で「失われる」信号値
ナイキストシャノンサンプリング定理によれば、帯域幅をもつ任意の連続時間信号 BBB ナイキスト周波数よりも小さい fN=fs/2fN=fs/2f_N=f_s/2 (と fsfsf_s サンプリング周波数)、これはサンプリング周波数でサンプリングされます fsfsf_ssinc補間(つまり、Whittaker–Shannon補間公式)によって完全に再構築できます。 一定のサンプリング時間で、大きさが制限された連続時間信号である未知のサンプルをサンプリングすると仮定します。 T=1/fsT=1/fsT=1/f_s サンプルインスタンスで kTkTkT、(k∈Zk∈Zk\in\mathbb{Z})、サンプリングジッタまたは量子化なし。次の制約を追加しますB=αfNB=αfNB=\alpha f_N、 0≤α≤10≤α≤10\leq\alpha\leq 1。 私が理解したいのは以下です: サンプルの瞬間kkk、それぞれについて決定したい αα\alphaサンプル間の任意の連続時間信号の最悪の場合の部分的な「オーバーシュート」k−1k−1k-1 そして kkk、私が持っていたかもしれないこと。つまり、連続時間信号が、サンプルの瞬間の最高(絶対)サンプリング値よりどれだけ高かったかkkk そして k−1k−1k-1。サンプリングによって「失われた」連続信号または再構築(sinc補間は完璧なので!!)。 例: 設定α=1α=1\alpha=1 離散時間信号[1,0,1,0,1,1,0,1,0,1]と仮定します(中央付近のdouble 1に注意してください。この信号は α=1α=1\alpha=1?)。サンプル(黒のインパルス)からのsincの再構成(青い線)は次のようになります(各サンプルに属するsincを灰色でプロットしました): サンプル間の「オーバーシュート」k=0k=0k=0 そして k=1k=1k=1、 ≈0.7≈0.7\approx 0.7 または 70%70%70\%。したがって、元の帯域制限された連続時間、または「完全に帯域制限された再構築された」信号で、値1.7のピークを逃しました。私が3つ以上の連続した1を置いた場合、オーバーシュートは少なくなります(ギブス現象は結局はるかに小さくなります)。したがって、このような2つの連続したサンプルは「最悪のケース」です。 信号を両方向に拡張すると、オーバーシュートが大きくなります。 これは、≈1.1≈1.1\approx 1.1 ほぼ2.1の値に。 シーケンスの長さ 2m2m2m、この「オーバーシュート」 o(m)o(m)o(m) 無期限に成長し、 o(m)∝ln(m)o(m)∝ln⁡(m)o(m)\propto\ln{(m)}に行く ∞∞\infty いつ m→∞m→∞m\to\infty。これは、sincの各サンプルが建設的な「干渉」を生み出し、1/πn1/πn1/\pi n (単位sincのすべてのエンベロープの貢献) n→∞n→∞n\to\infty 収束しません。 …

1
BPSK信号の復調用にサンプリングする場所を決定する方法は?
単純なBPSK復調器があります。非常に単純に、信号が入り、1つはIに、もう1つはQに分割されます。 Iブランチはキャリアの正弦波と混合され、Qブランチはキャリアの余弦波と混合されます。 次に、各出力は、マッチドフィルター(この場合は、ルートレイズドコサインで、送信されたビットを最初にパルス整形したもの)とたたみ込まれます。 ここで、両方の出力を組み合わせて、両方の大きさ(I ^ 2 + Q ^ 2)を取ると、エンベロープが得られます。 ここから、ピークを探し、それらのインデックスを選択します。 次に、(4)で取得したものと同じインデックスを使用し、それらの同じインデックスでIとQをサンプリングします。これで、複雑なソフトビット値があり、位相または周波数のオフセットを修正でき、そこから難しい決定を下すことができます。(私は後処理の贅沢があります)。 この手法は、SNRが中程度の場合にうまく機能しました。問題は、SNR(およびマルチパス)が低いため、箇条書き(4)の実行方法がわからないことです。問題は、1ビットに対応するエンベロープの1つのピークではなく、複数のピークがあり、「ピークピッキング」が機能しないため、選択できる数が多いためです。この問題はどのように軽減されますか?「ビット」がどこにあるのかわからなければ前進できないので、これはボトルネックのようです。何かご意見は? どんな助けもありがたいです、数学は良いですが、答えは前もってもっとpesudo-code / concept指向であるようにお願いします。ありがとう! 編集:Dilipからのフィードバックのおかげで、信号があり信号がない場合にエンベロープ内の「エネルギー」を明確に見ることができることも追加する必要があります。(つまり、私の信号が到着する前に)、これは私が同期/復調できるはずであり、それだけでSNRの問題ではないことを信じるようにします...

3
自己相関の大きさに対するエイリアシングの影響は何ですか?
自己相関の大きさに対するエイリアシングの影響について質問があります。MATLABでのシミュレーションから、自己相関の大きさをとるときに、エイリアシングの影響やアンチエイリアスフィルターの必要性がわかりません。つまり、データをアンダーサンプリングして、自己相関を取ることができます。「完全な自己相関関数から導き出されたスペクトルモーメント推定に対するエイリアシングの影響」という論文があり、これは私が主張するようなものです。私が間違いを犯した場合、誰かに知らせていただけますか?

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.