最尤推定(MLE)と最小二乗推定(LSE)の主な違いは何ですか?
なぜ線形回帰で値を予測するためにMLEを使用できないのですか?
このトピックに関するヘルプは大歓迎です。
最尤推定(MLE)と最小二乗推定(LSE)の主な違いは何ですか?
なぜ線形回帰で値を予測するためにMLEを使用できないのですか?
このトピックに関するヘルプは大歓迎です。
回答:
私は簡単な答えを提供したいと思います。
最尤推定(MLE)と最小二乗推定(LSE)の主な違いは何ですか?
@TrynnaDoStatがコメントしたように、二乗誤差を最小化することは、この場合の尤度を最大化することと同等です。ウィキペディアで述べたように、
線形モデルでは、誤差が正規分布に属する場合、最小二乗推定量は最尤推定量でもあります。
あなたの場合は同じように見ることができますが、
少し詳しく説明します。応答変数()
には正規誤差分布モデルがあることがているため
、尤度関数は
明らかにLを最大化することはを最小化することと同等です
これは最小二乗法です。
線形回帰で値を予測するためにMLEを使用できないのはなぜですか?
上で説明したように、実際には(より正確には同等に)値を予測するためにMLEを使用しています。また、応答変数が正規分布ではなく任意の分布を持っている場合(ベルヌーイ分布または指数関数族のいずれかなど)、リンク関数(応答分布による)を使用して線形予測子を応答変数分布にマッピングすると、尤度関数は変換後のすべての結果(0〜1の確率)の積。線形回帰のリンク関数を恒等関数として扱うことができます(応答は既に確率であるため)。
MLは最小絶対偏差(含む推定の高く設定されているノルム)と、最小二乗(ノルムを)。MLの内部では、推定器は(悲しいことに)存在しないブレークポイントのような幅広い共通の特性を共有します。実際、MLアプローチを代替として使用して、自分が何をしているのかわかっている限り、OLSを含む多くのことを最適化できます。L 2
L 2ノルムはCF Gaussに戻り、約200年前ですが、現代のMLアプローチは(IMHO)Huber 1964に戻ります。多くの科学者はノルムとその方程式に慣れています。理論はよく理解されており、次のような有用な拡張機能と見なすことができる多くの公開された論文があります。
プロフェッショナルアプリケーションはデータに適合しているだけでなく、次のことを確認します。
また、仮説に関する膨大な数の特殊な統計検定があります。これは、すべてのML推定量に適用される必要はありません。または、少なくとも証拠を記載する必要があります。
別の不敬な点は、 -Normは実装が非常に簡単で、ベイジアン正則化またはLevenberg-Marquardなどの他のアルゴリズムに拡張できることです。
忘れないでください:パフォーマンス。Gauss-Markovようなすべての最小二乗ケースが対称正定正規方程式を生成するわけではありません。したがって、 -Norm ごとに個別のライブラリを使用します。この特定のケースに対して特別な最適化を実行することができます。(X T X )- 1 L 2
詳細についてはお気軽にお問い合わせください。