変分ベイズ法はEMアルゴリズムの一般化であるとどこかで読みました。実際、アルゴリズムの反復部分は非常に似ています。EMアルゴリズムが変分ベイズの特別なバージョンであるかどうかをテストするために、次のことを試しました。
はデータ、は潜在変数のコレクション、はパラメーターです。変分ベイズでは、ような近似を作成できます。どこ sが単純で、扱いやすい分布です。Θ P (X 、Θ | Y )≈ Q X(X )Q Θ(Θ )Q
EMアルゴリズムはMAPポイントの推定値を見つけるため、Q ^ 1_ \ Theta(\ Theta)= \ delta _ {\ Theta ^ 1}(\ Theta)のようなデルタ関数を使用すると、変分ベイズがEMに収束できると考えました。。は、EMで通常行われるパラメーターの最初の推定値です。
場合、与えられた KL発散を最小化式によって求められる
上記の式はに簡略化され、このステップはExpectationステップと同等であることが判明しました。 EMアルゴリズムの!
しかし、これを継続するものとして最大化ステップを導き出すことはできません。次のステップでは、Q ^ 2_ \ Theta(\ Theta)を計算する必要があり、変分ベイズの反復規則に従って、これは次のようになります。
VBとEMアルゴリズムは本当にこのように接続されていますか?変分ベイズの特別なケースとしてEMをどのように導出できますか?