MLEは常に、データの基礎となるPDFを知っていることを意味し、EMは知らないことを意味しますか?


12

MLE(最大尤度推定)と、EM(期待最大化)とのリンク(ある場合)について明確にしたいいくつかの簡単な概念的な質問があります。

私が理解しているように、誰かが「私たちはMLEを使用しました」と言ったら、それは自動的にデータのPDFの明示的なモデルを持っていることを意味しますか?これに対する答えはイエスであるように思えます。別の言い方をすれば、誰かがいつでも「MLE」と言ったら、どんなPDFを想定しているのかを尋ねるのは公平です。これは正しいでしょうか?

最後に、EMでの私の理解は、EMでは、データの基礎となるPDFを実際に知らない、または知る必要がないということです。これは私の理解です。

ありがとうございました。


1
EMの「M」は、尤度の最大化を表します。尤度を書き留めるには、pdfが必要です。EMは、ある意味で「観測不能」の存在下でMLEを見つける方法です(Eステップで埋められます)。つまり、EMを使用するには、明示的なモデルが必要です。
Glen_b-モニカを復活させる

@Glen_bありがとうGleb_b。したがって、1)EMでは、MLEと同様に、データのPDFのモデルを常に想定していると言うのは正しいでしょうか?誰かが「私たちはMLE / EMを使用しました」と言ったら、 2)最後に、EMに関して、あなたが言及している観測不能なものは、混合物を構成する特定のPDFの確率であると
思い

ノンパラメトリック最尤法があることに注意してください。カプラン・マイヤーを調べてください。
soakley

Creatron-on(1)EMは、他の方法では対処が難しいMLEを計算するためのアルゴリズムであることに注意してください。どちらの場合でも、モデルは単一のpdfよりも複雑になる可能性が高いため、少し一般的な質問「あなたのモデルは何ですか?」を尋ねます。オン(2)EMアルゴリズムは混合にのみ適用されません。それよりも一般的です。
Glen_b-モニカの復活2013

回答:


13

MLEメソッドは、誰かがpdfの基本的な関数形式(ガウス、対数正規、指数など)を知っているが、基礎となるパラメーターは知らない場合に適用できます。たとえば、pdfのσの値がわからない場合:f x | μ σ = 1μσ 又はそれらが想定されているPDFの他のどのようなタイプ。MLEメソッドの仕事は、特定のデータ測定値x1x2x3...が与えられた場合に、未知のパラメーターに最適な(つまり、もっともらしい)値を選択することです。実際に観察されました。最初の質問に答えるために、はい、あなたは常に彼らが彼らの最尤推定のために仮定しているpdfの形式を誰かに尋ねるあなたの権利の範囲内です。実際、彼らがあなたに伝える推定パラメータ値は、最初にそのコンテキストを伝えない限り意味がありません。

f(x|μ,σ)=12πσ2exp[(xμ)22σ2]
x1,x2,x3,...

過去に適用したEMアルゴリズムは、メタアルゴリズムの一種であり、メタデータの一部が欠落しているため、それも推定する必要があります。したがって、たとえば、おそらく私は、例えば、いくつかのガウス分布の混合物であるPDFを持っている: 表面的には、パラメータ振幅の追加を除い K、これは以前の問題のようにたくさん見えるが、私はあなたに言ったならば、我々はまたしてもの価値がわからないというNを(すなわち、数ガウス混合物中のモード)との我々は、データ測定からと推定するのx 1 xは2 X 3あまりにも?

f(x|A1,...,AN,μ1,...,μN,σ1,...σN)=k=1NAk2πσk2exp[(xμk)22σk2]
AkNx1,x2,x3,...

NN=1A1μ1σ1N=2A1A2μ1μ2σ1σ2A1μ1N=1モデルでは、同じパラメーターで取得した最適な値と直接比較することはできませんσ1N=1N=2

EMアルゴリズムの役割は、これらのタイプの比較を行うメカニズムを提供することです(通常は、より小さな値を優先する「複雑性ペナルティ」を課すことにより)NN

したがって、元の質問に答えるために、EMアルゴリズムでは、pdfの形式のより正確でない指定が必要です。ある範囲の代替オプション(たとえば、N = 2Nのオプション)N=1N=2N=3


Ak=1N

N

Ak=1NNN=4N=5
stachyra

ありがとうスタキラ。最後の質問である、アウトデータ混合のPDF(PDFの加重合計で構成される2番目の式で与えられる)は、データのすべてのサンプルの共同 PDFとは異なります。 ?(データサンプルがIIDであると仮定します)。
クレアトロン

いいえ、まったく違います。2つの完全に異なるものです。記述している共同PDFは、MLEで使用される尤度関数の形式によりよく似ています。ここで教科書が役に立つかもしれません。MLEについては、Philip R. BevingtonとD. Keith Robinsonによる「物理科学のデータ削減とエラー分析」の第10章、またはGlen Cowanによる「Statistical Data Analysis」のセクション6.1が好きです。特定のタイプのEM実装を行う方法の特定の例については、この説明のセクション
2〜5が好きです

2

MLEは少なくとも周辺分布の知識を必要とします。MLEを使用する場合、通常、iidの仮定を立てて、共同分布のパラメーターを推定し、その後、既知の限界の積として共同分布を因数分解します。バリエーションがありますが、これはほとんどの場合の考え方です。したがって、MLEはパラメトリックメソッドです。

EMアルゴリズムは、MLEアルゴリズムの一部として現れる尤度関数を最大化する方法です。多くの場合(通常?)数値解法に使用されます。

MLEを使用するときはいつでも、少なくとも周辺分布と、ジョイントが周辺にどのように関係するか(独立性など)に関するいくつかの仮定が必要です。したがって、両方の方法は分布の知識に依存しています。


理にかなっている@Charlesに感謝します。人々が「ノンパラメトリックMLE」について話すとき、それはどういう意味ですか。そのフレーズは一見すると意味がありません。MLEは常に分布のパラメーターを推定しますよね?
クレアトロン

彼らはELE(経験的尤度推定)について話しているかもしれません。私は一度も使ったことがない。必要に応じて説明しようとします。それ以外の場合はわかりません。
チャールズペリバリアン
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.