ベイズ事後考えてみましょ。漸近的に、その最大値はMLE推定値で発生θだけ尤度最大化し、argminのθを。
これらのすべての概念、つまり可能性を最大化するベイズの事前分布は、超原理的であり、まったく恣意的ではありません。ログが見えません。
しかし、MLEは、実際の分布とのKLダイバージェンスを最小限に抑えとすなわち、それは最小限に抑え、
うわー、これらのログはどこから来たのですか?特にKLの相違はなぜですか?
たとえば、異なる発散を最小化することが、ベイジアン後任者の超原理的で動機付けられた概念に対応せず、上記の可能性を最大化しないのはなぜですか?
このコンテキストでは、KLの相違やログについて特別なことがあるようです。もちろん、私たちは空中に手を投げて、それがまさに数学がそうであると言うことができます。しかし、明らかにするために、より深い直感やつながりがあるのではないかと思います。
あなたはここにいくつかのアイデアを見つけることができます: stats.stackexchange.com/questions/188903/...
—
はKjetil BをHalvorsenの
@kjetilbhalvorsen以前のタイトルは重複のように聞こえました。謝罪します。編集を行いましたが、この質問が重複していない理由は明らかです。
—
Yatharth Agarwal
他の質問は、「KLダイバージェンスとは何か、そしてなぜそれは対称的ではないのか」と尋ねます。答えは、分岐の概念と、KLに関するいくつかの情報を説明しています。対照的に、この質問は、「なぜベイジアン事後はKL発散の最小化因子に集中するのか」と問います。発散が対称的である必要がないことを簡単に説明し、KLを説明し、KLがMLEに接続されていることを説明することは、ここでの質問の核心に対処することに失敗します。これは理にかなっていますか?
—
Yatharth Agarwal
はい、それは理にかなっていますが、まだ問題があります。後部は前のものにも依存し、それが強い場合、後部は最大値をMLEから離すことができます。しかし、事前はあなたの質問に欠席しています。
—
kjetil b halvorsen
@kjetilbhalversen私は漸近的に、より多くのIIDサンプルを使用し、事前条件が漸近的に重要ではない(厳しい)条件下で意味しました!
—
Yatharth Agarwal