以下からの定義に従えば、回帰の実行中:部分尤度、プロファイル尤度、および限界尤度の違いは何ですか?
つまり、最尤法は
L(β、θ| data)を最大化するβとθを見つけます。
一方、限界尤度
我々は、βを条件とするθの確率分布を特定できるという事実を活用することにより、尤度方程式からθを統合します。
最大化するのに適した方法論とその理由はどれですか?
以下からの定義に従えば、回帰の実行中:部分尤度、プロファイル尤度、および限界尤度の違いは何ですか?
つまり、最尤法は
L(β、θ| data)を最大化するβとθを見つけます。
一方、限界尤度
我々は、βを条件とするθの確率分布を特定できるという事実を活用することにより、尤度方程式からθを統合します。
最大化するのに適した方法論とその理由はどれですか?
回答:
これらはそれぞれ異なる解釈で異なる結果をもたらします。最初は、最も可能性が高いペア、θを見つけ、2番目は(限界的に)最も可能性が高いβを見つけます。ディストリビューションが次のようになっていると想像してください。
0.0 0.2
0.1 0.2
0.3 0.2
その場合、最尤回答は(θ = 3)であり、最大周辺尤度回答はβ = 2です(θ、P (β = 2 )= 0.6 に対して周辺化するため)。
一般的に、限界尤度は多くの場合あなたが望むものです-もしあなたがパラメータの値を本当に気にしないなら、あなたはそれらを単に折りたたむべきです。しかし、おそらく実際にはこれらの方法はあまり異なる結果をもたらさないでしょう-もしそうなら、それはあなたの解の根本的な不安定性、例えば、β、θの異なる組み合わせのすべてが同様の予測を与える複数のモードを指し示すかもしれません。
私はこの質問に今取り組んでいます。これは役に立つかもしれない結果です。線形モデルを考えます
ここで及び β及び σ 2は、関心のあるパラメータです。共同尤度は
結合尤度収量の最適化
ここで、の擬似逆でX及びR = Y - Xのβはフィット残差ベクトルです。注意していることをσ 2我々は1 / nとの代わりに馴染みの自由度の比修正。この推定量は、有限サンプルの場合にバイアスされることが知られています。
今、代わりに両方の上で最適化すると仮定とσ 2、我々は統合βアウトと推定σ 2を結果として統合可能性から:
初等線形代数とガウス積分公式を使用して、次のことを示すことができます
これには自由度補正があり、それにより、偏りがなく、一般的なジョイントML推定よりも有利になります。
この結果から、統合された尤度に関して本質的に有利なものがあるかどうかを尋ねられるかもしれませんが、その質問に答える一般的な結果は知りません。コンセンサスは、統合されたMLがほとんどの推定問題の不確実性の説明に優れていると思われます。特に、他のパラメーター推定値に(暗黙的にでも)依存する量を推定する場合、他のパラメーターを積分すると、不確実性がより適切に考慮されます。