期待の最大化アルゴリズムの動機


20

EMアルゴリズムアプローチでは、Jensenの不等式を使用して、に到達し

logp(x|θ)logp(z,x|θ)p(z|x,θ(k))dzlogp(z|x,θ)p(z|x,θ(k))dz

そして、を定義しますθ(k+1)

θ(k+1)=argmaxθlogp(z,x|θ)p(z|x,θ(k))dz

私がEMを読むことはすべてそれを単純に落としますが、EMアルゴリズムが自然に発生する理由の説明がないためにいつも不安を感じています。通常、尤度は乗算ではなく加算を処理するために処理されが、の定義でのの出現は私にはやる気がありません。他の単調関数ではなくを考慮する必要があるのはなぜですか?さまざまな理由から、期待値の最大化の背後にある「意味」または「動機」には、情報理論と十分な統計の観点から何らかの説明があると思われます。そのような説明があれば、単なる抽象的なアルゴリズムよりもはるかに満足のいくものになります。loglogθ(k+1)log


3
期待値最大化アルゴリズムとは何ですか?Nature Biotechnology 26:897–899(2008)には、アルゴリズムがどのように機能するかを示す素晴らしい画像があります。
chl

@chl:私はその記事を見ました。私が求めている点は、非ログアプローチが機能しない理由をどこにも説明していないことに注意して
ください-user782220

回答:


10

EMアルゴリズムにはさまざまな解釈があり、さまざまなアプリケーションでさまざまな形で発生する可能性があります。

すべては、尤度関数p(x|θ)、または同等に、最大化する尤度関数log p x | θ )で始まりますlogp(x|θ)。(我々は、一般的には、計算を簡略化として対数を使用:これは、厳密に単調凹面、及びあるlog(ab)=loga+logb。)理想的な世界では、値pのみに依存するモデルパラメータ θので、の空間を検索し、θ最大化するものを見つけることができますp

ただし、多くの興味深い実世界のアプリケーションでは、すべての変数が観察されるわけではないため、事態はより複雑です。はい、私たちは直接観察するかもしれませんxが、他のいくつかの変数zは観察されません。そのための不足している変数 zがなけれ:、我々は鶏と卵の状況の一種であるz我々は、パラメータを推定することはできませんθしてなくてθ我々は、の値が何を推測することはできませんzかもしれません。

ここで、EMアルゴリズムが役立ちます。モデルパラメーター初期推定から開始し、θ欠損変数期待値を導き出しますz(つまり、Eステップ)。の値をz取得すると、パラメーターθ(つまり、問題ステートメントのargmax方程式に対応するMステップ)に対する尤度を最大化できます。このθを使用して、z(別のEステップ)などの新しい期待値を導出できます。つまり、各ステップで、zθの両方のいずれかを想定しますθ、 知られている。尤度がこれ以上増加しなくなるまで、この反復プロセスを繰り返します。

これは、簡単に言えばEMアルゴリズムです。この反復EMプロセス中に尤度が決して低下しないことはよく知られています。ただし、EMアルゴリズムはグローバルな最適化を保証しないことに注意してください。つまり、尤度関数の局所的な最適化になる可能性があります。

θ k + 1 の式でのの出現は避けられません。ここでは、最大化する関数が対数尤度として記述されているためです。logθ(k+1)


これがどのように質問に答えているのかわかりません。
broncoAbierto

9

尤度対対数尤度

すでに述べたように、は製品よりも合計を最適化する方が一般的に簡単であるという理由だけで、最尤で導入されます。他の単調関数を考慮しない理由は、対数が積を和に変換する特性を持つ一意の関数だからです。log

対数をやる気にさせるもう一つの方法は以下の通りである:代わりに、我々のモデルの下でのデータの確率を最大化する、我々は同等に最小化しようとすることができカルバック・ライブラー情報量データ分布と、、およびモデルの配布、PをX | θ pdata(x)p(xθ)

DKL[pdata(x)∣∣p(xθ)]=pdata(x)logpdata(x)p(xθ)dx=constpdata(x)logp(xθ)dx.

右側の最初の項は、パラメーターが一定です。我々が持っている場合はデータ配信(当社データポイント)からのサンプルを、私たちは第二項を近似することができるデータの平均対数尤度と、N

pdata(x)logp(xθ)dx1Nnlogp(xnθ).

EMの代替ビュー

これがあなたが探している種類の説明になるかどうかはわかりませんが、次の期待値最大化の見方は、ジェンセンの不平等による動機よりもはるかに啓発的であることがわかりました(Neal&Hinton(1998)で詳細な説明を見つけることができますまたは、Chris BishopのPRML本、9.3章)。

それを示すことは難しくありません

logp(xθ)=q(zx)logp(x,zθ)q(zx)dz+DKL[q(zx)∣∣p(zx,θ)]

任意の。我々は右辺第1項を呼び出すとF Q θ 、これがあることを意味しますq(zx)F(q,θ)

F(q,θ)=q(zx)logp(x,zθ)q(zx)dz=logp(xθ)DKL[q(zx)∣∣p(zx,θ)].

のでKLダイバージェンスは常にポジティブであるすべての固定のための対数尤度の下限であるQ。現在、EMはqθに関してFを交互に最大化するものと見なすことができます。特に、Eステップでq z x = p z x θ を設定することにより、右側のKL発散を最小化し、したがってFを最大化します。F(q,θ)qFqθq(zx)=p(zx,θ)F


投稿いただきありがとうございます!けれども与えられた文書は、対数が合計に製品を回すユニークな機能であると言っていません。それは対数が3つのリストされた特性すべてを同時に満たす唯一の機能であると言います。
ウェイウェイ

@Weiwei: Right, but the first condition mainly requires that the function is invertible. Of course, f(x) = 0 also implies f(x + y) = f(x)f(y), but this is an uninteresting case. The third condition asks that the derivative at 1 is 1, which is only true for the logarithm to base e. Drop this constraint and you get logarithms to different bases, but still logarithms.
Lucas

4

The paper that I found clarifying with respect to expectation-maximization is Bayesian K-Means as a "Maximization-Expectation" Algorithm (pdf) by Welling and Kurihara.

Suppose we have a probabilistic model p(x,z,θ) with x observations, z hidden random variables, and a total of θ parameters. We are given a dataset D and are forced (by higher powers) to establish p(z,θ|D).

1. Gibbs sampling

We can approximate p(z,θ|D) by sampling. Gibbs sampling gives p(z,θ|D) by alternating:

θp(θ|z,D)zp(z|θ,D)

2. Variational Bayes

q(θ)q(z)p(θ,z|D)KL[q(θ)q(z)||p(θ,z|D)] we update:

q(θ)exp(E[logp(θ,z,D)]q(z))q(z)exp(E[logp(θ,z,D)]q(θ))

3. Expectation-Maximization

To come up with full-fledged probability distributions for both z and θ might be considered extreme. Why don't we instead consider a point estimate for one of these and keep the other nice and nuanced. In EM the parameter θ is established as the one being unworthy of a full distribution, and set to its MAP (Maximum A Posteriori) value, θ.

θ=argmaxθE[logp(θ,z,D)]q(z)q(z)=p(z|θ,D)

Here θargmax would actually be a better notation: the argmax operator can return multiple values. But let's not nitpick. Compared to variational Bayes you see that correcting for the log by exp doesn't change the result, so that is not necessary anymore.

4. Maximization-Expectation

There is no reason to treat z as a spoiled child. We can just as well use point estimates z for our hidden variables and give the parameters θ the luxury of a full distribution.

z=argmaxzE[logp(θ,z,D)]q(θ)q(θ)=p(θ|z,D)

If our hidden variables z are indicator variables, we suddenly have a computationally cheap method to perform inference on the number of clusters. This is in other words: model selection (or automatic relevance detection or imagine another fancy name).

5. Iterated conditional modes

Of course, the poster child of approximate inference is to use point estimates for both the parameters θ as well as the observations z.

θ=argmaxθp(θ,z,D)z=argmaxzp(θ,z,D)

To see how Maximization-Expectation plays out I highly recommend the article. In my opinion, the strength of this article is however not the application to a k-means alternative, but this lucid and concise exposition of approximation.


(+1) this is a beautiful summary of all methods.
kedarps

4

There is a useful optimisation technique underlying the EM algorithm. However, it's usually expressed in the language of probability theory so it's hard to see that at the core is a method that has nothing to do with probability and expectation.

Consider the problem of maximising

g(x)=iexp(fi(x))
(or equivalently logg(x)) with respect to x. If you write down an expression for g(x) and set it equal to zero you will often end up with a transcendental equation to solve. These can be nasty.

Now suppose that the fi play well together in the sense that linear combinations of them give you something easy to optimise. For example, if all of the fi(x) are quadratic in x then a linear combination of the fi(x) will also be quadratic, and hence easy to optimise.

Given this supposition, it'd be cool if, in order to optimise logg(x)=logiexp(fi(x)) we could somehow shuffle the log past the so it could meet the exps and eliminate them. Then the fi could play together. But we can't do that.

Let's do the next best thing. We'll make another function h that is similar to g. And we'll make it out of linear combinations of the fi.

Let's say x0 is a guess for an optimal value. We'd like to improve this. Let's find another function h that matches g and its derivative at x0, i.e. g(x0)=h(x0) and g(x0)=h(x0). If you plot a graph of h in a small neighbourhood of x0 it's going to look similar to g.

You can show that

g(x)=ifi(x)exp(fi(x)).
We want something that matches this at x0. There's a natural choice:
h(x)=constant+ifi(x)exp(fi(x0)).
You can see they match at x=x0. We get
h(x)=ifi(x)exp(fi(x0)).
As x0 is a constant we have a simple linear combination of the fi whose derivative matches g. We just have to choose the constant in h to make g(x0)=h(x0).

So starting with x0, we form h(x) and optimise that. Because it's similar to g(x) in the neighbourhood of x0 we hope the optimum of h is similar to the optimum of g. Once you have a new estimate, construct the next h and repeat.

I hope this has motivated the choice of h. This is exactly the procedure that takes place in EM.

But there's one more important point. Using Jensen's inequality you can show that h(x)g(x). This means that when you optimise h(x) you always get an x that makes g bigger compared to g(x0). So even though h was motivated by its local similarity to g, it's safe to globally maximise h at each iteration. The hope I mentioned above isn't required.

This also gives a clue to when to use EM: when linear combinations of the arguments to the exp function are easier to optimise. For example when they're quadratic - as happens when working with mixtures of Gaussians. This is particularly relevant to statistics where many of the standard distributions are from exponential families.


3

As you said, I will not go into technical details. There are quite a few very nice tutorials. One of my favourites are Andrew Ng's lecture notes. Take a look also at the references here.

  1. EM is naturally motivated in mixture models and models with hidden factors in general. Take for example the case of Gaussian mixture models (GMM). Here we model the density of the observations as a weighted sum of K gaussians:

    p(x)=i=1KπiN(x|μi,Σi)
    where πi is the probability that the sample x was caused/generated by the ith component, μi is the mean of the distribution, and Σi is the covariance matrix. The way to understand this expression is the following: each data sample has been generated/caused by one component, but we do not know which one. The approach is then to express the uncertainty in terms of probability (πi represents the chances that the ith component can account for that sample), and take the weighted sum. As a concrete example, imagine you want to cluster text documents. The idea is to assume that each document belong to a topic (science, sports,...) which you do not know beforehand!. The possible topics are hidden variables. Then you are given a bunch of documents, and by counting n-grams or whatever features you extract, you want to then find those clusters and see to which cluster each document belongs to. EM is a procedure which attacks this problem step-wise: the expectation step attempts to improve the assignments of the samples it has achieved so far. The maximization step you improve the parameters of the mixture, in other words, the form of the clusters.
  2. The point is not using monotonic functions but convex functions. And the reason is the Jensen's inequality which ensures that the estimates of the EM algorithm will improve at every step.

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.