ホワイトガウスノイズの離散フーリエ変換の統計とは何ですか?


10

ホワイトガウスノイズ信号について考えます。 この信号をサンプリングして離散フーリエ変換を計算すると、結果のフーリエ振幅の統計はどうなりますか?x(t


1
離散時間の白色ガウス信号から始める必要があります。そのプロセスの自己相関関数はディラックのデルタ分布によって記述されるため、連続時間の白いプロセスのサンプリングは数学的に不適切です。サンプリングされたプロセスの自己相関は元の連続プロセスの自己相関のサンプリングされたバージョンであるため、定義されていないディラックデルタ分布のサンプリングされたバージョンを考慮する必要があります。
Matt L.

@MattL。「サンプリングされたプロセスの自己相関は、元の連続プロセスの自己相関のサンプリングされたバージョンです...」。実際、これは私には明らかではありません。それは有用な自己Q&Aになると説明します。
DanielSank

答えはホワイトガウスノイズの単一変換に当てはまることに注意してください。
Royi

@Royi私はあなたの編集に同意しません。タイトルで使用した大文字がサイトポリシーと一致していることを示すリンクを提供できますか?
DanielSank

あなたのスタイルを復元しました。編集の主なことは、関連するタグを追加することでした。
Royi

回答:


15

数学ツール

確率理論とフーリエ解析のいくつかの基本的な要素を使用して計算を行うことができます。3つの要素があります(確率変数の確率密度を表します)バツ 価値あり バツ なので Pバツバツ):

  1. 確率変数が与えられた バツ 配布あり Pバツバツ、スケーリングされた変数の分布 Y=aバツ です PYy=1/aPバツy/a

  2. 2つの確率変数の合計の確率分布は、加数の確率分布のたたみ込みに等しくなります。つまり、Z=バツ+Y その後 PZz=PバツPYz どこ 畳み込みを示します。

  3. 2つの関数のたたみ込みのフーリエ変換は、これら2つの関数のフーリエ変換の積に等しくなります。言い換えると:

dバツfgバツekバツ=dバツfバツekバツdバツgバツekバツ

計算

ランダムなプロセスを バツt。離散サンプリングは一連の値を生成しますバツ統計的に無相関であると仮定します。また、それぞれについて バツ 標準偏差でガウス分布されています σ。標準偏差でガウス関数を表しますσ 記号で Gσ だから私たちはそれを言うでしょう Pバツバツ=Gσバツ

離散フーリエ変換の振幅は次のように定義されます

バツkΣ=0N1バツe2πk/N
今のところ、私たちが持っている実際の部分にのみ焦点を当てます
バツk=Σ=0N1バツcos2πk/N
これは単なる合計なので、ルール#2の確率分布 バツk合計される項の確率分布の多重畳み込みに等しい。合計を次のように書き換えます
バツk=Σ=0N1y
どこ
yバツcos2πk/N
コサイン係数は決定論的なスケール係数です。の分布はバツ です Gσ 上記のルール#1を使用して、 y
Pyy=1cos2πk/NGσycos2πk/N=Gσcky
ここでは、表記を簡潔にするために定義しました ckcos2πk/N

したがって、 バツk 関数に対する多重畳み込みです Gσck

Pバツkバツ=Gσc0kGσc1kバツ

複数の畳み込みを行う方法は明らかではありませんが、ルール#3を使用すると簡単です。関数のフーリエ変換をF 我々は持っています

FPバツk=Π=0N1FGσck

幅のあるガウスのフーリエ変換 σ 幅のある別のガウス 1/σなので、

FPバツkν=Π=0N1G1/σck=Π=0N1σ2ck22πexp[ν221/σ2ck2]=σ22πN/2Π=0N1ckexp[ν22σ2Σ=0N1cos2πk/N2]
指数に先行するすべてのものは独立しています νしたがって正規化要素なので、無視します。合計はちょうどですN/2 だから私たちは
FPバツkαexp[ν22σ2N2]=G2/σ2N
したがって
Pバツk=GσN/2

したがって、フーリエ係数の実数部の確率分布を計算しました バツk。これは標準偏差でガウス分布されていますσN/2。分布は周波数インデックスとは無関係であることに注意してくださいk、これは相関のないノイズには意味があります。対称性により、虚数部はまったく同じように分布する必要があります。

直感的に、統合を追加すると、結果として生じるノイズ分布の幅が減少するはずであると予想しています。ただし、次の分布の標準偏差がバツk 成長するN。これは、離散フーリエ変換の正規化を選択したためです。代わりにこのように正規化した場合

バツk=1NΣ=0N1バツe2πk/N
その後、私たちは見つけたでしょう
Pバツk=Gσ/2N
これは、データを追加するとノイズ分布が小さくなるという直感に一致します。この正規化により、コヒーレント信号は固定振幅フェーザーに復調されるため、ノイズ振幅に対する信号の比率が次のようにスケーリングされるという通常の関係を回復します。N

これはすべてうまくいきますが、複数の確率変数、特にガウス確率変数を扱う場合、どの確率変数が独立しているかという問題と同様に、共分散はある程度重要です。あなたの答えでこの問題に対処できますか?(限界的にガウス確率変数も一緒にガウスである必要はありません。2Nランダム変数は一緒にガウスですか?彼らは独立していますか?
Dilip Sarwate、2015年

1
@DilipSarwateこれはいい質問です。残念ながら、(まだ)答えはわかりません。私はあなたが確率的信号処理の「自己学習」と呼ぶかもしれないものを検討していますが、異なる時点での物理的プロセスの値が共同ガウスとして頻繁にモデル化される理由(またはそれが本当に意味することさえ)をまだ理解していません。根本的なプロセスを支配する微分方程式に関係しているのではないかと思いますが、ここでもまだわかりません。自分でQ&Aを作成したい場合は、非常に便利です。そうでなければ、私は最終的にこのサイトで関連する質問をします。
DanielSank

@DilipSarwate この他の質問への回答でガウス過程の仮定を使用していることに気づきました。「ガウス過程」は、固定されたプロセスの分布がtガウス分布です。これは、ガウス過程が自然/工学において一般的であることを示唆しています。これは本当ですか?もしそうなら、なぜ私がその理由を知ることができるかについてのヒントを教えていただけますか?
DanielSank

1
@DanielSank中心極限定理によれば、個々の確率変数の元の分布に関係なく、非常に多数の独立確率変数の組み合わせにより、常に正規分布が生成されます。正規分布は非常によく研究されているため、観察されているプロセスが中心極限定理に適合するとしばしば仮定されます。これは常に当てはまるわけではありませんが(CCDのフォトンなど)、多くの巨視的な物理学の問題に対して安全な近似になる傾向があります。
PhilMacKay 2017

1
@ anishtain4これは、プロセスをシミュレートするPythonの単一(長い!)行ですimport numpy as np; np.std(np.real(np.sum(np.random.normal(0, 1, (10000, 10000)) * np.exp(1.0j * 2 * np.pi * np.linspace(0, 1, 10000) * 50), axis=1)))。これを行うと、次の出力が得られます7010000/2それがあるべきです。おそらく、シミュレーションをその行と比較できます。
DanielSank 2018年

2

@DanielSankの答えについてもう一度説明します。まず、vCN0σ2 そして、その離散フーリエ変換は次のようになります:

Vk=1NΣ=0N1vej2πNk

の分布を計算したい Vk まず、次のことに注意してください。 vホワイトガウスノイズであり、円対称であるため、フーリエ変換の実数部と虚数部は同じように分布します。したがって、実数部の分布を計算し、それを虚数部と組み合わせるだけで済みます。

だから私たちは分離します Vkその実際と虚数の部分に。我々は持っています:

Vk=1NΣ=0N1vej2πNk
Vk=1Nn=0N1(R{vn}+jI{vn})(cos(2πnNk)+jsin(2πnNk))
Vk=R{Vk}1+R{Vk}2+jI{Vk}1+jI{Vk}2
Vk=R{Vk}+jI{Vk}

どこ:

R{Vk}=R{Vk}1+R{Vk}2
I{Vk}=I{Vk}1+I{Vk}2

そして:

R{Vk}1=1Nn=0N1R{vn}cos(2πnNk)

R{Vk}2=1Nn=0N1I{vn}sin(2πnNk)

I{Vk}1=1Nn=0N1R{vn}sin(2πnNk)

I{Vk}2=1Nn=0N1I{vn}cos(2πnNk)

Now we work on deriving the distribution of R{Vk}1 and R{Vk}2. As in @DanielSank's answer, we define:

xn,k=1Ncos(2πnNk)R{vn}=1Ncn,kR{vn}

Thus we can write:

R{Vk}1=n=0N1xn,k

This allows us the easily apply the following facts about linear combinations of Gaussian random variables. Namely, we know that:

  1. When xCN(0,σ2) then R{x}N(0,12σ2)
  2. When xN(μ,σ2) then cxN(cμ,c2σ2)

Together, these imply that xn,kN(0,cn,k22N2σ2). Now we work on the sum. We know that:

  1. When xnN(μn,σn2) then y=n=0N1xnN(n=0N1μn,n=0N1σn2)
  2. n=0N1cn,k2=N2

These imply that:

R{Vk}1N(0,n=0N1cn,k22N2σ2)=N(0,N22N2σ2=N(0,σ24N)

So we have shown that:

R{Vk}1N(0,σ24N)

Now we apply the same argument to R{Vk}2. Abusing our notation, we rewrite:

xn,k=1Nsin(2πnNk)I{vn}=1Nsn,kI{vn}

Repeating the same argument, and noting that the Gaussian is a symmetric distribution (so we can ignore the sign difference), gives us:

R{Vk}2N(0,σ24N)

Since n=0N1sn,k2=N2 as well. So therefore since R{Vk}=R{Vk}1+R{Vk}2, we get:

R{Vk}N(0,σ24N+σ24N)=N(0,σ22N)

So we have shown that:

R{Vk}N(0,σ22N)

By circular symmetry, we also know then that:

I{Vk}N(0,σ22N)

So since Vk=R{Vk}+jI{Vk}, we finally arrive at:

VkCN(0,σ2N)

Therefore taking the DFT divides the variance by the length of the DFT window -- assuming the window is rectangular of course -- which is the same result as in @DanielSank's answer.


Why Sum of C(n,k)^2=N/2?
ハイゴタン
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.