良い質問。まず、この近似がどこから来たかを思い出してください。してみましょう、あなたのデータポイントも、あなたのモデルになるとあなたのモデルのパラメータであること。非線形最小二乗問題の目的関数はここで、は残差のベクトルです。目的関数の正確なヘッセ行列はです。したがって、この近似の誤差は(X I、Y I)F (⋅ )β 1H≈ JTJ(x私、y私)f(⋅ )β、R、RI=YI-、F(XI、β)H=JTJ+は、ΣRI∇2RIH-JTJ=ΣRI∇2RI12rTrrr私= y私− f(x私、β)H= JTJ+ ∑ r私∇2r私H− JTJ= ∑ r私∇2r私。残差自体が小さい場合、これは適切な近似です。または、残差の2次導関数が小さい場合。線形最小二乗は、残差の2次導関数がゼロである特別な場合と考えることができます。
差分近似に関しては、比較的安価です。中心の差を計算するには、ヤコビ行列をさらに回評価する必要があります(前方差分では追加評価が必要になるため、気にしません)。中心差分近似の誤差は、およびに比例します。ここで、はステップサイズです。最適なステップサイズは。ここでN ∇ 4 R H 2 H H 〜ε 12 nn∇4rh2h ϵh∼ϵ13ϵマシンの精度です。そのため、残差の導関数が爆発しない限り、有限差分近似はLOTの方が良いはずです。計算は最小限ですが、簿記は重要なことです。ヤコビアン上の各差分は、各残差に対してヘッセ行列を1行与えます。その後、上記の式を使用してヘッセ行列を再構築する必要があります。
ただし、3番目のオプションがあります。ソルバーが準ニュートン法(DFP、BFGS、Bryodenなど)を使用している場合、各反復で既にヘッセ行列を近似しています。近似は、反復ごとに目的関数と勾配値を使用するため、非常に優れたものになります。ほとんどのソルバーは、最終的なヘッセ行列推定(またはその逆)へのアクセスを提供します。それがあなたのためのオプションであるなら、私はそれをヘシアンの推定値として使用します。すでに計算されており、おそらくかなり良い推定値になるでしょう。