Gibbs Samplingアルゴリズムは詳細なバランスを保証しますか?
ギブスサンプリングがマルコフ連鎖モンテカルロサンプリング用のメトロポリスヘイスティングスアルゴリズムの特殊なケースであることは、最高の権限1に基づいています。MHアルゴリズムは、常に詳細なバランスプロパティを持つ遷移確率を提供します。ギブズもそうすべきだと思う。では、次の単純なケースでどこがおかしいのでしょうか? 2つの離散(簡単にするため)変数のターゲット分布場合、完全な条件付き分布は次のとおりです。 π(x,y)π(x,y)\pi(x, y)q1(x;y)q2(y;x)=π(x,y)∑zπ(z,y)=π(x,y)∑zπ(x,z)q1(x;y)=π(x,y)∑zπ(z,y)q2(y;x)=π(x,y)∑zπ(x,z) \begin{align} q_1 (x;y) & =\frac{\pi (x,y)}{\sum_z \pi (z,y)} \\ q_2 (y;x) & =\frac{\pi (x,y)}{\sum_z \pi (x,z)} \end{align} ギブスサンプリングを理解すると、遷移確率は次のように記述できます Prob{(y1,y2)→(x1,x2)}=q1(x1;y2)q2(x2;x1)Prob{(y1,y2)→(x1,x2)}=q1(x1;y2)q2(x2;x1) Prob\{(y_1, y_2) \to (x_1, x_2)\} = q_1(x_1; y_2) q_2(x_2; x_1) 問題は、 しかし私が得ることができる最も近いものは これは微妙に異なり、詳細なバランスを意味するものではありません。ご意見ありがとうございます!π(y1,y2)Prob{(y1,y2)→(x1,x2)}=?π(x1,x2)Prob{(x1,x2)→(y1,y2)},π(y1,y2)Prob{(y1,y2)→(x1,x2)}=?π(x1,x2)Prob{(x1,x2)→(y1,y2)}, \pi(y_1,y_2) Prob\{(y_1, y_2) \to (x_1, x_2)\} \overset{?}{=} \pi(x_1,x_2) Prob\{(x_1, x_2) \to (y_1, y_2)\}, π(y1,y2)Prob{(y1,y2)→(x1,x2)}=π(y1,y2)q2(x2;x1)q1(x1;y2)=π(x1,x2)∑zπ(x1,z)π(x1,y2)∑zπ(z,y2)π(y1,y2)=π(x1,x2)q2(y2;x1)q1(y1;y2)π(y1,y2)Prob{(y1,y2)→(x1,x2)}=π(y1,y2)q2(x2;x1)q1(x1;y2)=π(x1,x2)∑zπ(x1,z)π(x1,y2)∑zπ(z,y2)π(y1,y2)=π(x1,x2)q2(y2;x1)q1(y1;y2) …