線形モデルを推定したいとします:(応答の観測値と予測子) P + 1つのE(Y I)= β 0 + P Σ J = 1 β J X I J
これを行う1つの方法は、OLSソリューションを使用することです。つまり、二乗誤差の合計が最小になるように係数を選択します。
または、絶対偏差の合計など、別の損失関数を使用して、次のようにすることもできます。
2つのモデルのパラメーターが見つかり、損失関数の値が最小のモデルを選択するとします。一般的に、損失関数によって達成される最小値をどのように比較できますか?(つまり、この特定のケースだけではなく、他のベースの損失関数も試すことができます)関数のスケールには違いがあるようです。一方は正方形を扱い、もう一方はそうではありません。
1
まあ、マルコフの仮定は、最初の方程式が青、または最高の線形不偏推定量であることを示します。この場合、「最良」は、考えられるすべての推定量の標準誤差が最小になるように決定されます。それは十分な統計ではありませんか?
—
gregmacfarlane 2014
なおなど
—
マヌエル
@gmacfarlaneここでは、パラメーター推定の標準誤差ではなく、損失関数の最小値に関して「最良」を定義したいと思います。(好奇心から
—
脱出
2つの異なる損失関数からの近似は、異なる質問に対する答えであるため、比較できないと思います。与えられた損失関数があなたの状況に適切であると決定すると、適合はその決定から続きます。これを循環させることなく、損失関数の選択を検証するために折り返すことはできません。両方の損失関数が包含されると理解できる他の基準がある場合は、それを使用できますが、事前に定義しておく必要があります。
—
ガン-モニカを元に戻す
期待値のモデルが正しく、サンプルサイズが十分に大きいため両方の推定値が実質的に母集団の値であった場合、質問は「平均偏差を標準偏差と比較するにはどうすればよいですか」に効果的に変換されます。与えられた分布の仮定の下で、それらの予想サイズを比較できますが、もちろん、小さなサンプルでは推定自体が異なります。
—
Glen_b-モニカを復元する14