私は現在、RからJAGSを使用して階層ベイジアンモデルを学習しており、Python(「ベイカーのハッカー手法」)を使用してpymcも学習しています。
私はこの投稿から直感を得ることができます。「結局、あなたが知りたいと思った複雑な分布から独立したサンプルをなんとかしてなんとかして管理できたかのように見える数の山になってしまいます。」それは私が条件付き確率を与えることができるようなものであり、それから私は条件付き確率に基づいて無記憶プロセスを生成することができます。プロセスを十分に長く生成すると、同時確率が収束し、生成されたシーケンスの最後に山の数をとることができます。複雑な共同分布から独立したサンプルを取得するのと同じです。たとえば、ヒストグラムを作成して、分布関数を近似することができます。
それから私の問題は、MCMCが特定のモデルに収束するかどうかを証明する必要がありますか?私は以前にGMMとLDA(グラフィカルモデル)のEMアルゴリズムを学んだので、これを知ってやる気があります。収束するかどうかを証明せずにMCMCアルゴリズムのみを使用できる場合、EMよりもはるかに多くの時間を節約できます。予想対数尤度関数を計算する必要があるため(事後確率を計算する必要があります)、次に予想対数尤度を最大化します。これは、MCMCよりも明らかに厄介です(条件付き確率を定式化する必要があるだけです)。
また、尤度関数と事前分布が共役であるかどうかも疑問に思っています。それは、MCMCが収束する必要があることを意味しますか?MCMCとEMの制限について疑問に思っています。