Robby McKilliamのコメントに関して:私は、頻繁な専門家がこれに関して持つ難しさは、「事前知識」の定義にあると思いますが、モデルに事前知識を組み込む能力にはそれほどありません。たとえば、特定のコインが頭に浮かぶ確率を推定することを検討してください。私たちは、私の事前の知識が、基本的に、そのコインを10回裏返しと5頭を思い付いた、またはおそらくフォームの「工場は100万枚のコインを作った、とのdist'nされていた実験だったと仮定しましょう、など巨大な実験によって決定され、pβ(a,b)「。このタイプの事前情報を実際に持っているときは誰もがベイズのルールを使用します(ベイズのルールは条件付き確率を定義するだけで、ベイジアンのみのことではありません)。 Bayesのルールを介してモデルに情報を組み込みます(注意:サンプルサイズが十分に大きくないため、以前の情報が結果に影響を与えないことが確実である場合を除きます)。しかし、結果の解釈はもちろん、違います。
知識が客観的/実験的でより主観的になるにつれて、特に哲学的な観点から困難が生じます。これが起こると、フリークエンシストはこの情報をモデルに組み込む傾向が少なくなりますが、ベイジアンにはそれを行うための多少の正式なメカニズムがありますが、主観的な事前を引き出すのは困難です。
正則化に関して:尤度および事前考慮してください。少なくとも技術的には、頻度論者がによって「正規化された」最尤推定を使用することを防ぐものはありません。l(θ;x)p(θ)logp(θ)
θ~=maxθ{logl(θ;x)+logp(θ)}
以下のためガウス、二次ペナルティには、この量は縮小ガウスの平均値に向けて、など他のディストリビューションのために。は、同じ尤度関数と事前分布を使用したベイジアンの最大事後(MAP)ポイント推定値に等しくなります。もちろん、ここでも、頻度主義者とベイジアンの推定値の解釈は異なります。また、ベイジアンは、完全な事後分布にアクセスできるMAPポイント推定値を使用するように制約されません-しかし、その後、フリークエンシーは、正規化された対数尤度を最大化する必要はありません。 -モーメントなど(利用可能な場合)。p(θ)θθ~
ここでも、哲学的な観点から困難が生じます。なぜある正則化関数を別の正則化関数よりも選択するのですか?ベイジアンは、以前の情報を評価することで、以前のベースのビューに移行することができます。頻度の高い人は、これらの理由で選択を正当化するのに苦労します(できませんか?)多くの統計学者の仕事/経験。OTOH、(実用的な)ベイジアンは事前確率でもそれを行います-分散の事前確率に関するすべての論文に100ドルを持っているなら...
その他の「考え」:頻度関数/ベイジアン視点の影響を受けないと仮定して、尤度関数を選択する問題全体をスキップしました。たいていの場合はそうだと思いますが、異常な状況では、例えば計算上の理由で起こると想像できます。
要約:いくつかのコーナーケースを除き、フリークエンシストは、厳密に数学的および計算上の観点から、ベイジアンができるモデルに以前の情報をほとんど組み込むことができると思います。もちろん、結果の解釈は異なります。私は、しかし、frequentistは例えば、すべての場合にはそうする哲学正しいとみなします信じていない、実際について何か知っている廊下の人どこ上記の正則化関数言うには「私が思うにする必要があります約1.5インチ。そして、例えばジェフリーの過去を経て、無知に近いものを取り入れることはまさに正しいことです。θθ