2つの競合する推定器およびがある場合、は、がより良い推定量は、「最高」の定義に完全に依存します。たとえば、偏りのない推定器を比較し、「より良い」とは分散が小さいことを意味する場合、はい、これはがより良いことを意味します。は、最小二乗法およびガウスの対数尤度との関係から一般的な基準ですが、多くの統計基準と同様に、使用には注意が必要ですθ^1θ^2
MSE(θ^1)<MSE(θ^2)
θ^1θ^1MSEMSE アプリケーションに注意を払うことなく、推定器の品質の尺度として盲目的に。
を最小化するために推定量を選択することは、特に賢明なことではない場合があります。2つのシナリオが思い浮かびます。MSE
データセットに非常に大きな外れ値がある場合、MSEに大きな影響を与える可能性があるため、MSEを最小化する推定量はそのような外れ値の影響を過度に受ける可能性があります。このような状況では、エスティメータがMSEを最小化するという事実は、外れ値を削除すると、大きく異なる推定値を取得できるため、実際にはあまりわかりません。その意味で、MSEは外れ値に対して「堅牢」ではありません。回帰のコンテキストでは、この事実がHuber M-Estimator(この回答で説明します)の動機となり、ロングテールエラーがある場合に異なる基準関数(二乗誤差と絶対誤差の混合)を最小化します。 。
制限されたパラメーターを推定する場合、比較することは適切ではない場合があります。これは、その場合に過大評価と過小評価のペナルティが異なるためです。たとえば、分散推定するとします。次に、意識的にが最大でになる量を過小評価すると、過大評価によりをはるかに超えるが生成される可能性があります。MSEσ2MSEσ4MSEσ4
これらの欠点をより明確にするために、これらの問題のためにが推定器の品質の適切な尺度ではない場合の具体例を示します。MSE
自由度の分布からサンプルがあり、分散を推定しようとしているとします。これはX1,...,Xntν>2ν/(ν−2)です。2つの競合する推定量を考える 及びθ 2 = 0 、R E G
θ^1:the unbiased sample variance
明らか
M S E (θ 2)= ν 2θ^2=0, regardless of the data
、それは事実である
MSE( θ 1)={ ∞ 場合 ν ≤ 4 ν 2MSE(θ^2)=ν2(ν−2)2このスレッドで説明されて
いる事実と
t分布のプロパティを使用し
て導き出すことができます。
点でこのようナイーブ推定器よりも優れMSEに関わらずいつでもサンプルサイズのνは<4、むしろ当惑されます。また、
(2M S E( θ^1)= { ∞ν2(ν− 2 )2(2n − 1+ 6n (ν− 4 ))もし ν≤ 4もし ν> 4 。
tM S Eν< 4が、これは、非常に小さいサンプルサイズにのみ関連します。上記の理由の長い尾の性質の起こる
トンの作る自由の小さな度の分布、
θ 2非常に大きな値としがち
MSEは、一方で、過大評価のために重く処罰
θ 1は、この問題はありません。
(2n − 1+ 6n (ν− 4 )) >1tθ^2M S Eθ^1
M S EM S Eθ^
S(θ^)= θ^ν/(ν− 2 )− 1 − ログ(θ^ν/(ν− 2 ))
S(θ^1)= ∞