拒否サンプリングの証明はどのように意味がありますか?


9

私はモンテカルロ法のコースを受講しており、前回の講義で拒否サンプリング(またはAccept-Reject Sampling)方法を学びました。この方法の証明を示す多くのリソースがウェブ上にありますが、どういうわけか私はそれらに確信が持てません。

したがって、Rejection Samplingには、サンプリングが難しい分布あります。サンプリングしやすい分布を選択し、とような係数を見つけます。次に、からサンプリングし、各描画について、標準の一様分布からaもサンプリングします。f(x)g(x)cf(x)cg(x)g(x)xiuU(u|0,1)

サンプルは、場合は受け入れられ、それ以外の場合は拒否されます。xicg(xi)uf(xi)

私が出会った証明は通常、であることを示し、そこで停止します。p(x|Accept)=f(x)

このプロセスについて私が考えるのは、一連の変数あり、ペアはi。番目のサンプル()に対応し、それが受け入れられるかどうかということです。 ()。各ペアは、次のように互いに独立していることがわかります。x1,Accept1,x2,Accept2,...,xn,Acceptnxi,AcceptixiAcceptixi,Accepti

P(x1,Accept1,x2,Accept2,...,xn,Acceptn)=i=1nP(xi,Accepti)

ため対我々が知っている及び。簡単に計算できますが、証明としてどのように十分なのかわかりません。アルゴリズムが機能することを示す必要があるので、受け入れられたサンプルの経験的分布がとして収束することを証明する必要があると私は思います。つまり、はすべての受け入れられたサンプルと拒否されたサンプルの数です。P x i= g x iP A c c e p t i | x i= f x i(xi,Accepti)P(xi)=g(xi) PXI|A、C、C、E、P、TIFX、Nn個P(Accepti|xi)=f(xi)cg(xi)p(xi|Accepti)f(x)nn

NNumberofsampleswith(AxiB)NumberofacceptedsamplesABf(x)dx as 。n

この思考パターンに間違いはありますか?または、アルゴリズムの共通の証明とこれの間には関係がありますか?

前もって感謝します

回答:


8

アルゴリズムをランダム変数からドローを生成すると考える必要があります。アルゴリズムが機能することを示すには、アルゴリズムが必要なランダム変数からドローすることを示すだけで十分です。

ましょと pdfファイルとスカラーのランダム変数であるとそれぞれ、我々はすでにからサンプリングする方法を知っているものです。であるによってバインドできることもわかります。Y F X 、F Y Y F X M F Y M 1XYfXfYYfXMfYM1

私たちは今、新しいランダム変数の形成、これは確率値を取りますそしてそう。これは、からのドローを「受け入れる」アルゴリズムを表します。A | Y ベルヌーイ  F XY A1fXyA|yBernoulli (fX(y)MfY(y))1 0YfX(y)MfY(y)0Y

次に、アルゴリズムを実行して、から受け入れられたすべての描画を収集します。このランダム変数をと呼びます。Z = Y | A = 1YZ=Y|A=1

を示すには、すべてのイベント、であることを示す必要があります。E P Z E = P X E ZXEP(ZE)=P(XE)

それでは、まずベイズの規則を使用してみましょう。

P(ZE)=P(YE|A=1)=P(YE&A=1)P(A=1)

そして、私たちが書いている上部

P(YE&A=1)=EfY,A(y,1)dy=EfA|Y(1,y)fY(y)dy=EfY(y)fX(y)MfY(y)dy=P(XE)M.

そして、下部は単純です

P(A=1)=fY,A(y,1)dy=1M

上記と同じ理由で、ます。E=(,+)

そして、これらを組み合わせてます。これは、必要なです。Z XP(XE)ZX

これがアルゴリズムのしくみですが、質問の最後で、より一般的な考えについて心配しているようです。つまり、経験的分布がサンプリングされた分布にいつ収束するのでしょうか。これは、私があなたを正しく理解していれば、あらゆるサンプリングに関する一般的な現象です。

この場合、すべて分布 iid確率変数とします。次に、任意のイベント、は期待値の線形性によって期待値持ちます。X E Σ N iが= 1 1 X IEX1,,XnXE PXEi=1n1XiEnP(XE)

さらに、適切な仮定が与えられれば、多数強い法則を使用して、経験的確率がほぼ確実に真の確率に収束することを示すことができます。


答えてくれてありがとう。大数の法則を使用して、経験的分布が目標分布に収束することをどのように示すことができるかを明確にできますか?これはまさにこの場合に表示しようとするものです。
Ufuk Can Bicici 2014年


@Harri邪魔なのは、実際の変数の値を学習した後で、ドローの受け入れを示すランダム変数()を学習するという事実です。シーケンスに従って変数を観察します。したがって、変数を観察しようとしている場合、システムについてわかっているのはとあり、は独立しているためですそれらのうち、処理するのは最初に、次にです。、Y 1A 1Y 2A 2Y nA nA=1Y1,A1,Y2,A2,...,Yn,AnY 1 A 1 Y 2 P Y 2P A 2 | Y 2Y2Y1A1Y2P(Y2)P(A2|Y2)
Ufuk Can Bicici 2014年

を知り、次にを知る順序があなたを邪魔する理由についてもう少し詳しく説明してもらえますか?P A 2 | Y 2P(Y2)P(A2|Y2)
Harri

1

まず、拒否サンプリング法の完全な手順では、単一の確率変数しか生成されないことに注意してください。一部のが受け入れられると、手順は停止し、なくなります。複数の確率変数が必要な場合は、手順を複数回繰り返します。x i + 1xixi+1

いくつかの教科書では、彼らはによる受け入れのイベントを示し、確率を計算しますA

P(A)=dx0f(x)cg(x)g(x)du=1cf(x)dx=1c.

そして

fX(x|A)=fX(x)P(A|x)P(A)=g(x)f(x)cg(x)1c=f(x).

混乱するのは、ここでの受け入れは単一のサンプルの受け入れであるように見えますが、手順全体で複数の拒否する場合があることです。x i x iAxixi

はい、より厳密な証明では、さまざまなステップでの受け入れの確率を考慮する必要があります。LET示す番目のサンプル、を表す確率密度関数、表し番目の受け入れを、そして最終的な受け入れ値を表します。次に、の確率密度関数は はあり、は以前に計算されたです。ノートあります I F X I X 、I A I I X X F X X = P A 1F X 1XXiifXiXiAiiXXP A 11

fX(x)=P(A1)fX1(x|A1)+P(A2)fX2(x|A2)+.
P(A1)1cfX1(x|A1)f(x)P(A2)(11c)1cの拒絶の確率でのでのみ持ちます拒否されを選択するチャンスです。11cX1X1X2

また、もこれは、2番目のステップが前のステップの影響を受けないため、その確率は最初のステップと同じになるはずです。この説明があなたを納得させないなら、我々はそれを厳密に解決することもできます。注意してください時に定義されていない受け入れられている(または、あなたがたときに、任意の数であるように、それを定義することができ関わる確率のためにそう、未定義の値は、あなたが不快になる場合は受理された)、与えられた唯一の条件付き確率またはのサブセット理にかなっています。今 f x X 2 X 1 X 1 X 2 A c 1 A c 1fX2(x|A2)f(x)X2X1X1X2A1cA1c

fX2(x|A2)=P(A1c)fX2(x|A1c)P(A2|X2=x)P(A2)=P(A1c)fX2(x|A1c)P(A2|X2=x)P(A1c)P(A2|A1c)=fX2(x|A1c)P(A2|X2=x)P(A2|A1c)=g(x)f(x)cg(x)1c=f(x).
つまり、 これが望ましい結果です。 = 1は直感的な意味を持っていることに注意してください。つまり、あるステップで最終的に1つのサンプルが受け入れられます。PA1+PA2+i
fX(x)=P(A1)f(x)+P(A2)f(x)+=(P(A1)+P(A2)+)f(x)=(1c+(11c)1c+(11c)21c+)f(x)=f(x).
P(A1)+P(A2)+i
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.