期待値演算子内でテイラー近似を使用する理由は何ですか?


8

私は時々人々が次のようにテイラー近似を使用するのを見ます:

E(ex)E(1+x)

テイラー近似が機能することを知ってい

ex1+x

しかし、期待演算子の中で近似を行うことができるかどうかは、はっきりしません。直感的には、「が0よりもはるかに大きい確率が小さい」場合に機能すると思いますが、これがどれほど厳密かはわかりません。x

編集:私たちは関数に期待があるとき、私はさらに混乱しています:

E(f(ex))?E(f(1+x))

1
@repmat、それはまったく真実ではありません。線形性は、関数演算子と期待演算子の間の可換性を意味しません
user56834 '31

回答:


6

特定の例では、中心とする1次テイラー近似なので、x0=0,ex=e0+e0x+R1=1+x+R1

E(ex)=E(1+x)+E(R1)

したがって、問題は「について何が言えるか」ということです。 さて、テイラー近似について、つまり残りの動作について、知りたいことはあまり知りませんE(R1)

残りの部分が危険なものである理由のこの例を参照してください。また、非常に刺激的なスレッドである、テイラーシリーズの期待(特に残りの部分)について読むことをお勧めします。

線形回帰の興味深い結果は次のとおりです。真の非線形モデルがあると仮定します

yi=m(xi)+ei

ここで、は条件付き期待関数であり、なので、構成によってです。E y ix i= m x iE e ix i= 0m(xi)E(yixi)=m(xi)E(eixi)=0

特に周りの1次テイラー近似を考えます。E(xi)

yi=β0+xiβ+ui,ui=R1i+ei

ここで、は近似のテイラー剰余です。ベータは、で評価されるに関する非線形関数の偏微分であり、定数項は他のすべてを収集します近似の修正されたもの(ところで、これがa)「常に仕様に定数を含める」と言われているが、b)定数はほとんどの場合意味のある解釈を超えている)理由です。x i E x iR1ixiE(xi)

次に、通常の最小二乗推定を適用すると、テイラー剰余が回帰変数に正解されないことがわかります。E、およびまた、です。最初の結果は、ベータのOLS推定量の特性が、非線形関数を1次のテイラー近似で近似したという事実の影響を受けないことを意味します。2番目の結果は、条件付き期待値が最適な予測子である同じ基準(平均二乗誤差、ここでは平均二乗剰余)で近似が最適であることを意味します。 E R 2 1 i= minE(R1ixi)=E(R1i)E(xi)E(R1i2)=min

これらの結果には両方の前提が必要です。つまり、リグレッサの期待値を中心にテイラー展開を行い、OLSを使用することです。


2

これが使用される1つの状況は、漸近的です。

たとえば、、が滑らかな関数であるとします。次に、 ここで、は、分布の収束(法の収束とも呼ばれる)を意味します。実際には、展開の高次項を削除しています そしてそれをとして扱う 一つの書き込みの Xnμσ/nN(0,1)g

g(Xn)g(μ)|g(μ)|σ/nLN(0,1) as n,
L''GXGμ+G'μX-μGXNANGμ G 'μ2 σ 2
g(x)=g(μ)+g(μ)(xμ)+g(μ)2(xμ)2+g(μ)6(xμ)3+
g(x)g(μ)+g(μ)(xμ).
AN
g(Xn)AN(g(μ),g(μ)2σ2n)
AN''は「漸近的に正常」を意味します。

1
これが質問に答えるとは思いません。あなたは単にその近似が行われた例を報告しているだけであり、それが正当な理由を説明していません。
Federico Poloni 2017
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.