変分ベイズとEMの関係


26

変分ベイズ法はEMアルゴリズムの一般化であるとどこかで読みました。実際、アルゴリズムの反復部分は非常に似ています。EMアルゴリズムが変分ベイズの特別なバージョンであるかどうかをテストするために、次のことを試しました。

  1. Yはデータ、は潜在変数のコレクション、はパラメーターです。変分ベイズでは、ような近似を作成できます。どこ sが単純で、扱いやすい分布です。Θ P X Θ | Y Q XX Q ΘΘ QXΘP(X,Θ|Y)QX(X)QΘ(Θ)Q

  2. EMアルゴリズムはMAPポイントの推定値を見つけるため、Q ^ 1_ \ Theta(\ Theta)= \ delta _ {\ Theta ^ 1}(\ Theta)のようなデルタ関数を使用すると、変分ベイズがEMに収束できると考えました。QΘ1(Θ)=δΘ1(Θ)Θ1は、EMで通常行われるパラメーターの最初の推定値です。

  3. 場合QΘ1(Θ)=δΘ1(Θ)、与えられたQX1(X) KL発散を最小化式によって求められる

    QX1(X)=exp(EδΘ1[lnP(X,Y,Θ)])exp(EδΘ1[lnP(X,Y,Θ)])dX
    上記の式はQX1(X)=P(X|Θ1,Y)に簡略化され、このステップはExpectationステップと同等であることが判明しました。 EMアルゴリズムの!

しかし、これを継続するものとして最大化ステップを導き出すことはできません。次のステップでは、Q ^ 2_ \ Theta(\ Theta)を計算する必要がありQΘ2(Θ)、変分ベイズの反復規則に従って、これは次のようになります。

QΘ2(Θ)=exp(EP(X|Θ1,Y)[lnP(X,Y,Θ)])exp(EP(X|Θ1,Y)[lnP(X,Y,Θ)])dΘ

VBとEMアルゴリズムは本当にこのように接続されていますか?変分ベイズの特別なケースとしてEMをどのように導出できますか?


EMアルゴリズムがMAP推定値を見つけることをどこで読みましたか?Neal&Hinton(1998)がこの論文で提示したEM見解を理解すると、変分推論とEMの関係が明らかになります。私の答えも参照してくださいここに
ルーカス14

この論文が説明するのと同じ方法でEMアルゴリズムを学んだと思います。それは下限最大化問題と見なされています。ジェンセンの等式と変動の計算を使用して、期待ステップでが下限を最大化する分布であり、最大化ステップでが見つかることがわかります、これは下限の最大値です。したがって、これは変分ベイズに似ています。(そして、それは周辺後部の局所的最大値に収束するため、MAP推定値)Θ T Θ T + 1 = A R G M A X ΘP(X|Θt,Y)ΘtΘt+1=argmaxΘ<lnP(X,Y,Θ)>P(X|Θt,Y)
Ufuk Can Bicici 14

1
申し訳ありませんが、私はあなたの質問を十分に注意深く読みませんでした。を計算する最大化ステップは、分布を許可する場合、つまり、分解の仮定のみを行う場合にのみ有効であると考えています。ただし、はデルタ分布であるとさらに仮定しました。のパラメーターであるに関する下限を明示的に最大化するようにしてください。 Q 2 Θ Θ 2 Q 2 ΘΘ = δ Θ 2Θ QΘ2QΘ2Θ2QΘ2(Θ)=δΘ2(Θ)
ルーカス14

プレゼンテーションcs.cmu.edu/~tom/10-702/Zoubin-702.pdfの 21ページで、同様にディラック関数を使用して、EMとVBの比較が示されています。しかし、VBがEMにどのように減少するかは示されていません。
ウフクカンビチチ

回答:


20

あなたのアプローチは正しいです。EMは、近似事後が点質量になるように制約されるという制約の下でVBと同等です。(これは、ベイジアンデータ解析の 337ページで証明なしで言及されています。)をこの点質量の未知の位置とします VBは次のKL発散を最小化します 上の最小値はEMのEステップを与え、上の最小値はEMのMステップを与えます。 Θ * Q ΘΘ = δ Θ - Θ *K L ΘΘ

QΘ(Θ)=δ(ΘΘ)
QXXΘ
KL(Q||P)=QX(X)QΘ(Θ)lnQX(X)QΘ(Θ)P(X,Y,Θ)dXdΘ=QX(X)lnQX(X)QΘ(Θ)P(X,Y,Θ)dX
QX(X)Θ

もちろん、KLの発散を実際に評価する場合、無限になります。ただし、デルタ関数を制限と見なす場合、これは問題ではありません。


技術的には、 wrtは、MAP-EMのMステップに対応します(以前の)。-VBEMペーパーのセクション3.1 Θ P Θ EQx[lnP(X,Y,Θ)]=EQx[lnP(X,Y|Θ)]+lnP(Θ)ΘP(Θ)
Yibo Yang
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.