別の説明として、次の直観を考慮してください。
エラーを最小限に抑える場合、これらのエラーにペナルティを科す方法を決定する必要があります。実際、linearly proportional
ペナルティーを課す最も簡単なアプローチは、ペナルティー関数を使用することです。このような関数を使用すると、平均からの各偏差に対応する比例誤差が与えられます。したがって、平均から2倍離れると、ペナルティは2倍になります。
より一般的なアプローチはsquared proportional
、平均からの偏差と対応するペナルティとの関係を考慮することです。これは、ことを確認するだろう、さらにはあなたが平均から離れている、比例より多くのあなたが罰せられることになります。このペナルティ関数を使用すると、外れ値(平均から遠く離れている)は、平均に近い観測値よりも比例して情報量が多いと見なされます。
これを視覚化するには、ペナルティ関数をプロットするだけです。
特に、回帰(OLSなど)の推定を考慮すると、ペナルティ関数が異なると結果も異なります。linearly proportional
ペナルティ関数を使用すると、回帰はsquared proportional
ペナルティ関数を使用する場合よりも少ない値を外れ値に割り当てます。したがって、中央値絶対偏差(MAD)は、より堅牢な推定量であることが知られています。したがって、一般に、堅牢な推定器はほとんどのデータポイントに適合しますが、外れ値を「無視」します。それに比べて、最小二乗適合は外れ値の方に引き寄せられます。比較のための視覚化を次に示します。
現在、OLSはほとんど標準ですが、さまざまなペナルティ関数も同様に使用されています。例として、Matlabのrobustfit関数を見てみましょう。これにより、回帰に対して異なるペナルティ(「重み」とも呼ばれます)関数を選択できます。ペナルティ関数には、アンドリュー、バイスクエア、コーチー、フェア、フーバー、ロジスティック、オール、タルワー、ウェルシュが含まれます。それらに対応する表現は、ウェブサイトでも見つけることができます。
ペナルティ関数についてもう少し直感的に理解するのに役立つことを願っています:)
更新
Matlabをお持ちの場合、Matlabのrobustdemoを使用することをお勧めします。これは、通常の最小二乗とロバスト回帰の比較用に特別に構築されたものです。
デモでは、個々のポイントをドラッグして、通常の最小二乗とロバスト回帰の両方への影響をすぐに確認できます(これは、教育目的に最適です!)。