これらのスライド(スライド#16および#17)は、オンラインコースの1つで見つけました。インストラクターは、最大事後推定値(MAP)が実際にどのようにソリューションであるかを説明しようとしました。ここで、は真のパラメータ。θ ∗
誰かがこれがどのように続くか説明できますか?
これらのスライド(スライド#16および#17)は、オンラインコースの1つで見つけました。インストラクターは、最大事後推定値(MAP)が実際にどのようにソリューションであるかを説明しようとしました。ここで、は真のパラメータ。θ ∗
誰かがこれがどのように続くか説明できますか?
回答:
共有したスライドを見ると、MAP推定を使用して、平均、モード、中央値など、事後のさまざまなプロパティを推定する方法を説明することが考えられます。これについては、Stephen M. Kayの著書「Fundamentals of Statistical Signal Processing」で紹介されている一般的なベイジアン推定量のコンテキストで説明します。
パラメータ推定に関連する3種類のリスク(つまり、コスト関数)を検討することから始めましょう。
- ; それ以外の場合
ここで、、ここでは推定値、は真のパラメーターです。ベイズ推定では、目的は予想されるリスクを最小限に抑えることです。θ θ
ここではのみを考慮しているため、内側の積分注目します。
ここで、選択したに応じて、推定器は事後の異なるプロパティを提供します。例えば、我々は最初のケースを選択した場合、、最小化のための、平均値です。あなたはインジケーター関数に関する質問なので、上記の3番目のリスクに対処します(について考えれば、同等ですインジケータを使用する)。
上記のケース3の場合:
が事後のモードに対応する場合、は最小化されます。θ
特定のケースでは、パラメータ空間は有限または可算無限インジケーター損失に関連する事後損失は、誤った確率等しいそして、正しいである事後確率が最大化されると、最小化されます。つまり、は事後分布またはMAPのモードです。Θ = { θ 1、θ 2、... } P(θ ≠ θ | X )P(θ = θ | X )θ
ただし、このMAPと損失の関連付けは、ほとんどの設定では正しくないという点で「民俗定理」です。つまり、はすべてのあり、さらにMAPは最終的には支配的な測定の選択に依存することを指摘しているDruihletおよびMarin(BA、2007)の結果とさらに競合します。(ただし、ルベーグ測度は暗黙的にデフォルトとして選択されています。)P(θ = θ | X )= 0 θ
たとえば、EvansとJang は2011年にarXivの論文を投稿し、 MAP、最小相対驚き(または最大プロファイル尤度)推定量、および損失関数の間の関係について議論しています。問題の核心は、MAP推定器もMLEも、少なくとも連続パラメーター空間では、意思決定理論的アプローチによって実際に正当化されないことです。そして、2007年にDruihletとMarinが2007年に実証したように、パラメーター空間で[任意に]選択された支配的な尺度がMAPの値に影響を与えます。これらは、損失関数
Robert BassettとJulio Derideは、ベイズ決定理論におけるMAPの位置付けについて議論する2016年の論文を発表しました。
「…私たちは、MAP推定量が0〜1の損失を持つベイズ推定量の制限として一般に受け入れられている概念の反例を提供します。」
著者は私の本「ベイジアンチョイス」に言及し、さらなる予防策なしにこの特性を述べ、私はこの点に関して不注意であることに完全に同意します!マキシマイザーの限界が必ずしも限界のマキシマイザーであるとは限らないという難しさがあります。この論文には、パラメータに依存しないサンプリング分布に関連付けられた、上記の事前のこの効果の例が含まれています。そこで提案されている十分な条件は、事後密度がほぼ確実に適切または準凹面であることです。
かなり人工的なものではありますが、別のタイプの損失関数の下での適切なベイズ推定量としてのバーガーとルッカによるMAP推定量の代替特性も参照してください。このアーカイブされた論文の著者は、以前に基づいた距離から始めます。ブレグマン距離と呼ばれます。これは、前のものに応じて2次距離またはエントロピー距離になります。このブレグマン距離と2次距離の混合である損失関数の定義
この問題については、第5章「ベイジアン統計、機械学習:確率論的観点-マーフィー」で言及したテキストの要約を示します。
データを観察したとしましょう。パラメータの事後分布についてコメントします。現在、MAPとして広く知られているこの事後分布のモードの点推定には、いくつかの欠点があります。
平均または中央値とは異なり、これは推定されている間、他のすべてのポイントを考慮しないという意味で、「非典型的な」ポイントです。平均/中央値を推定する場合、他のすべての点を考慮に入れます。
そのため、予想どおり、高度に歪んだ事後分布では、MAP(ひいてはMLE)は実際には事後分布を実際には表していません。
では、平均/中央値/モードなどの点推定を使用して事後をどのように要約するのでしょうか。
これは人々が決定理論を使用する場所です-本質的に損失関数は、真がでが私たちの推定である場合に被る損失です。さまざまな損失関数を選択できます。ここでの目的は、損失関数の期待値を最小化することです。
損失関数がとして設定されている場合、インジケーター関数は、真実を推定し、損失関数wrtの期待値を最小化することは、この関数 wrtを最大化することと同じです。このことから、事後モードが損失関数の期待値を最小化すると推測するのは直感的です。この計算の詳細は、上記の回答で確認できます 。I(θ ≠ θ | X )θ I(θ = θ | X )θ