9

短い質問:なぜこれが本当なのですか?

長い質問:

非常に単純に、私はこの最初の方程式を正当化するものを理解しようとしています。私が読んでいる本の著者(必要な場合はここに示しますが、必須ではありません)は次のように主張しています。

ガウスに近いという仮定のため、次のように書くことができます。

p0(ξ)=Aϕ(ξ)exp(an+1ξ+(an+2+12)ξ2+i=1naiGi(ξ))

ここで、p0(ξ)は、一連の期待値(単純な数)のみを観察した場合に、最大エントロピーを持つ観察データのPDFですnci,i=1...n、ここでci=E{Gi(ξ)}、およびϕ(ξ)は、標準化されたガウス変数、つまり平均0、単位分散のPDFです。

このすべてが起こっているのは、PDF、単純化するための出発点として上記の方程式を使用することであり、私は彼がどのようにそれを行うかを取得しますが、私は彼が上記の方程式を正当化する方法を取得しません。出発点。p0(ξ)

私は、誰も難読化しないように簡潔にするよう努めましたが、詳細が必要な場合はコメントでお知らせください。ありがとう!

回答:


12

(注:xに変更しました。)ξx

確率変数のための密度とP、あなたは制約がある場合 G IxとXp のために私は= 1 ... nは、最大エントロピー密度は P 0X = A EXP N Σ iは= 1 A I G IX

Gi(x)p(x)dx=ci,
i=1,,n ここで、 A I 'sがから決定される C I S'、及び Aは正規化定数です。
p0(x)=Aexp(i=1naiGi(x)),
aiciA

この文脈では、ガウス近似(「近似ガウス性」)は次の2つを意味します。

X01

an+2ai

これらの追加の制約は、として表されます

Gn+1(x)=x,cn+1=0,
Gn+2(x)=x2,cn+2=1,
p0(x)=Aexp(an+2x2+an+1x+i=1naiGi(x)),
p0(x)=Aexp(x22x22+an+2x2+an+1x+i=1naiGi(x)),
p0(x)=Aϕ(x)exp(an+1x+(an+2+12)x2+i=1naiGi(x));

exp(t)1+t

p0(x)Aϕ(x)(1+an+1x+(an+2+12)x2+i=1naiGi(x)).
Aai
p0(x)dx=1,xp0(x)dx=0,x2p0(x)dx=1
Gi(x)p0(x)dx=ci,i=1,,n,
Aai

Gi

Gi


μ=0σ2=1

p0(x)p0(x)

p0(x)

p0(z)ϕ(z)(1+i=1NciFi(z))

an+1x
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.