MaxEntおよびBayesian推論メソッドは、モデリング手順に情報を組み込むさまざまな方法に対応しています。両方とも公理的根拠に置くことができます(John Skillingの「Axioms of Maximum Entropy」およびCoxの「Algebra of Probable Inference」)。
事前知識が仮説空間上の測定可能な実数値関数の形式、いわゆる「事前」である場合、ベイズのアプローチは簡単に適用できます。MaxEntは、情報が仮説空間に対する厳しい制約のセットとして提供される場合、簡単です。実際には、知識は「事前」形式でも「制約」形式でもないため、メソッドの成功は、対応する形式で知識を表現する能力に依存します。
おもちゃの問題の場合、ベイジアンモデルの平均化は、事前分布が仮説の真の分布と一致するときに、最小の平均ログ損失(多くのモデル描画で平均化)を提供します。MaxEntアプローチでは、制約が満たされた場合に最悪のログ損失が最小になります(可能な限りすべての事前損失を引き継ぐ)
「MaxEnt」メソッドの父と考えられているETJaynesも、ベイジアンメソッドに依存していました。上のページ1412彼の著書、彼はベイジアンアプローチはMAXENTのアプローチがより自然である例が続い良い解決策をもたらした例を示します。
最尤法は、基本的に、モデルを事前に決定されたモデル空間内に配置し、そのようなモデルに制限されたすべてのモデルピッキングメソッドのデータに対して最高の感度を持たせるという意味で「可能な限りハード」にフィットしようとしますスペース。MaxEntとBayesianがフレームワークであるのに対して、MLは具体的なモデルの適合方法であり、特定の設計上の選択については、MLはBayesianまたはMaxEntアプローチから派生した方法になる可能性があります。たとえば、等式制約のあるMaxEntは、特定の指数族の最尤フィッティングに相当します。同様に、ベイジアン推論への近似は、正規化された最尤解を導きます。結論をデータに対して最大限に敏感にするために事前を選択した場合、ベイジアン推論の結果は最尤フィッティングに対応します。例えば、pベルヌーイトライアルを超える、このような従来のでしょう極限分布ベータ(0,0)
現実の機械学習の成功は、多くの場合、さまざまな哲学の組み合わせです。たとえば、「ランダムフィールド」はMaxEntの原理から派生したものです。アイデアの最も一般的な実装である正規化されたCRFでは、パラメーターに「優先」を追加します。その結果、このメソッドは実際にはMaxEntでもベイジアンでもありませんが、両方の考え方に影響されます。
こことここでベイジアンアプローチとMaxEntアプローチの哲学的基礎に関するリンクを集めました。
用語に関する注意:ある時点でベイズ規則を使用する場合、単にメソッドをベイジアンと呼ぶことがあります。同様に、「MaxEnt」は、高エントロピーのソリューションを支持する方法で使用されることがあります。これは、上記の「MaxEnt推論」または「ベイジアン推論」とは異なります