回答:
特定の例では、中心とする1次テイラー近似なので、
したがって、問題は「について何が言えるか」ということです。
さて、テイラー近似について、つまり残りの動作について、知りたいことはあまり知りません。
残りの部分が危険なものである理由のこの例を参照してください。また、非常に刺激的なスレッドである、テイラーシリーズの期待(特に残りの部分)について読むことをお勧めします。
線形回帰の興味深い結果は次のとおりです。真の非線形モデルがあると仮定します
ここで、は条件付き期待関数であり、なので、構成によってです。E (y i ∣ x i)= m (x i)E (e i ∣ x i)= 0
特に周りの1次テイラー近似を考えます。
ここで、は近似のテイラー剰余です。ベータは、で評価されるに関する非線形関数の偏微分であり、定数項は他のすべてを収集します近似の修正されたもの(ところで、これがa)「常に仕様に定数を含める」と言われているが、b)定数はほとんどの場合意味のある解釈を超えている)理由です。x i E (x i)
次に、通常の最小二乗推定を適用すると、テイラー剰余が回帰変数に正解されないことがわかります。E、およびまた、です。最初の結果は、ベータのOLS推定量の特性が、非線形関数を1次のテイラー近似で近似したという事実の影響を受けないことを意味します。2番目の結果は、条件付き期待値が最適な予測子である同じ基準(平均二乗誤差、ここでは平均二乗剰余)で近似が最適であることを意味します。 E (R 2 1 i)= min
これらの結果には両方の前提が必要です。つまり、リグレッサの期待値を中心にテイラー展開を行い、OLSを使用することです。
これが使用される1つの状況は、漸近的です。
たとえば、、が滑らかな関数であるとします。次に、 ここで、は、分布の収束(法の収束とも呼ばれる)を意味します。実際には、展開の高次項を削除しています そしてそれをとして扱う 一つの書き込みの