不適切な事後(密度)からのサンプリングは、確率的/理論的な観点からは意味がありません。これは、関数fがパラメーター空間で有限積分を持たないため、(有限測定)確率モデル(Ω 、σ 、P)(空間、シグマ代数、確率測定にリンクできないためです。 )。ff(Ω,σ,P)
不適切な事後をもたらす不適切な事前のモデルがある場合、多くの場合、MCMCを使用して、たとえばMetropolis-Hastingsなどのサンプルからサンプリングでき、「事後のサンプル」は妥当に見えるかもしれません。これは一見魅力的で逆説的に見えます。ただし、この理由は、MCMCメソッドが実際のコンピューターの数値制限に制限されているため、コンピューターのすべてのサポートが制限されている(そして離散的!)ためです。次に、これらの制限(有界性と離散性)の下では、ほとんどの場合、事後は実際に適切です。
後部のギブスサンプラーを構築できる例(わずかに異なる性質の)を示すHobertとCasellaの素晴らしいリファレンスがあり、後部のサンプルは完全に合理的に見えますが、後部は不適切です!
http://www.jstor.org/stable/2291572
同様の例が最近ここに登場しました。実際、HobertとCasellaは、MCMCメソッドを使用して事後の不正を検出することはできず、MCMCメソッドを実装する前に個別にチェックする必要があることを読者に警告します。要約すれば:
- Metropolis-Hastingsなどの一部のMCMCサンプラーは、コンピューターがパラメーター空間を制限し、2重化するため、不適切な後方からのサンプリングに使用できます(ただし、使用しないでください)。巨大なサンプルがある場合にのみ、いくつかの奇妙なことを観察できる可能性があります。これらの問題をどの程度検出できるかは、サンプラーで採用されている「楽器」の分布にも依存します。後者の点については、より詳細な議論が必要なので、ここに残すことを好みます。
- (ホーバートとカセラ)。不適切な事前分布を持つモデルのギブスサンプラー(条件付きモデル)を構築できるという事実は、事後(結合モデル)が適切であることを意味しません。
- 後部サンプルの正式な確率的解釈には、後部の妥当性が必要です。収束結果と証明は、適切な確率分布/測度に対してのみ確立されます。
PS(頬に少し舌):機械学習で人々がすることを常に信じてはいけません。ブライアンリプリー教授が述べたように、「機械学習は統計からモデルと仮定のチェックを差し引いたものです」。