EMとGradient Ascentの違いは何ですか?


回答:


21

から:

Xu LおよびJordan MI(1996)。 ガウス混合のEMアルゴリズムの収束特性について神経計算 2:129-151。

抽象:

パラメーター空間でのEMステップは、射影行列Pを介して勾配から取得されることを示し、行列の明示的な式を提供します。

2ページ

特に、正のデナイトマトリックスで勾配を事前に乗算することで、EMステップを取得できることを示しています。行列の明示的な式を提供します...

3ページ

つまり、EMアルゴリズムは、可変メトリック勾配上昇アルゴリズムと見なすことができます...

つまり、この論文は、EMアルゴリズムの勾配上昇、ニュートン、準ニュートンへの明示的な変換を提供します。

ウィキペディアから

勾配降下法、共役勾配法、ガウス–ニュートン法のバリエーションなど、最尤推定値を見つける方法は他にもあります。EMとは異なり、このような方法では通常、尤度関数の一次および/または二次導関数の評価が必要です。


5
この答えは、EMと勾配降下が基本的に同じアルゴリズムであり、あるアルゴリズムから別のアルゴリズムに切り替えるための変換が利用可能であることを示唆しているようです。これは一般に間違いなく間違いであり、考慮される生成モデルに強く依存します。引用された論文は、ガウス混合モデル(比較的単純な生成モデル)についての結論を導き出しているだけです。私の(確かに限られた)経験では、モデルが非常に非線形であり、潜在変数の役割が重要な場合、EMが賢明な更新ルールを導き出す唯一の方法です。
ブルー

9

いいえ、同等ではありません。特に、EMの収束は非常に遅くなります。

EMの最適化の観点に関心がある場合、このペーパーでは、EMアルゴリズムがより広いクラスのアルゴリズム(近接ポイントアルゴリズム)の特殊なケースであることがわかります。


2
または、同様の種類のアイデアについては、Hinton and Neal(1998)
共役

2
「EM収束ははるかに遅い」; これは明確に定義されておらず、確かに一般的には正しくありません。EMアルゴリズムは、アルゴリズムのクラス全体です。多くの問題のために、特定のEMアルゴリズムは、芸術の状態。
クリフAB

@CliffAB、これについて詳しく説明することをpleaseしないでください。私はあなたの議論を読みたいです。この答えを4年から読みましたので、今日は答えないでしょう。それ以来、多くの場合、EMは現在のポイントに応じて「学習率」パラメータを持つ勾配上昇であることがわかりました...(しばらくしてこの回答を編集して、並べ替えの結果を示すことができます)
Elvis

「遅い収束」は、収束率の観点から定義できます。勾配上昇の収束率は「学習率」に依存しますが、これは選択が容易ではないため、多くの場合、勾配上昇が困難になります。ただし、EMは実行可能な唯一のアルゴリズム(尤度の導関数または尤度自体の計算が難しい)である場合がありますが、その収束率はニュートンのような方法と比較して劣っていると思います。
エルビス

「The」EMアルゴリズムは、実際にはアルゴリズムのクラス全体です。一つは、ここで元の目的関数は最適化することは困難であるが、あれば、いくつかの他の変数は知られていた、溶液(典型的には閉じた形で)はるかに容易になるだろう。基本的なアウトラインは、他のパラメーターの現在の値を条件とする期待変数を入力し、変数の期待値に基づいてパラメーターを更新することです。アルゴリズムが収束する速さは、帰属データの情報量に依存することが示されています。不足しているデータが「有益」であるほど、収束は遅くなります。
クリフAB
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.