ケビンマーフィーの「機械学習:確率論的視点」の3.2章では、著者は「数値ゲーム」と呼ばれる例でベイズの概念学習を示していからサンプルを観察した後、サンプルを生成したルールを最もよく表す仮説を選びます。たとえば、「偶数」または「素数」。{ 1 、。。。、100 } 時間
最大事後推定と最尤推定は次のように定義されます。
ここで、はさまざまな仮説の事前確率を表し、事後は次のように定義されます。
IFF 、すなわち、それは仮説から置換した均一なサンプリングがどのように可能性が高いセット生じるであろう。直感的には、「最小」の仮説に対して事後が最も高いことを意味します。たとえば、仮説「2の累乗」は「偶数」よりも観測\ {2,4,8,16,64 \}を説明します。
これはすべて明らかです。ただし、次の文については混乱しています(直感的には完全に理にかなっていますが)。
尤度項は指数関数的にに依存し、以前の値は一定のままであるため、データを取得するたびに、MAP推定値は最尤推定値に収束します。
尤度は指数的にに依存することは事実ですが、指数はあり、、であるため、実際には尤度はになります。(0 、1 )N → ∞ X N → 0
この場合、MAPがMLEに収束するのはなぜですか?