[警告:ISBAの客観ベイズセクションのカード保有メンバーとして、私の見解はすべてのベイジアン統計学者を代表するものではありません!、まったく逆です...]
要約すると、「情報がまったくない」事前のようなものはありません。
確かに、「情報価値のない」事前は、悲しいことに誤名です。事前配布には、ある程度の情報に類似した仕様が含まれています。均一(または特に)均一な事前。実際、均一な事前分布は、問題の特定のパラメーター化に対して1つだけフラットです。あるパラメータ化(境界のあるパラメータ化も含む)に変更すると、変数のヤコビアンの変化が画像と密度に反映され、事前分布はフラットではなくなります。
エルビスが指摘したように、最大エントロピーは、いわゆる「情報価値のない」事前選択を提唱するアプローチの1つです。しかしそれは(a)の十分な必要との情報いくつかの瞬間の上の事前分布のπ (⋅を)制約を指定する∫ Θの H (θ )h (θ )π(⋅ ) MAXENT前につながる
、π *(θ )α EXP { λ T H (θ )}
と基準測定の(b)の予備選択 D μ (θ ) [連続的な設定で]を、議論を初期段階に戻す選択肢です!(さらに、制約のパラメーター化(つまりの選択)は、結果のMaxEnt事前分布の形状に影響します。)
∫Θh (θ )D π(θ )= h0
π∗(θ )∝ exp{ λTh (θ )}
D μ (θ )h
ホセ・ベルナルドは、事前と事後の間のカルバック距離を最大化することによりデータによってもたらされる情報を最大化するために事前確率を選択する参照事前確率の独自の理論を作成しました。迷惑パラメータのない最も単純なケースでは、解決策はジェフリーズの事前です。より複雑な問題では、(a)関心のあるパラメータの選択(または、関心のある順序のランク付け)を行う必要があります。(b)事前確率の計算はかなり複雑であり、不適切な問題を回避するために一連の組み込みコンパクトセットが必要です。(詳細については、例えば、ベイジアン選択を参照してください。)
興味深いひねりを加えて、ベイジアンの視点の外の研究者は、明示的な事前構造またはこのパラメーター空間の支配的な尺度なしに、周波数ベースの手順からの反転によって構築された、パラメーター空間上の確率分布である信頼分布と呼ばれる手順を開発しています。彼らは、明確に定義された事前分布が存在しないことはプラスであると主張しているが、結果は間違いなく初期化頻度ベースの手順の選択に依存
要するに、「the」「informative」事前の「最良」(または「より良い」)選択はありません。そして、ベイジアン分析の本質は、事前分布の選択が重要であることを示唆しているため、これは物事がどうあるべきかと考えます。そして、事前の比較はありません:1つは別よりも「良い」ことはできません。(少なくともデータを観察する前:一度観察すると、事前の比較がモデルの選択になります。)ホセ・ベルナルド、ジム・バーガー、ドンチュ・サン、および他の多くの「客観的」ベイジアンの結論は、ほぼ同等の参照事前があることです。自分の以前の情報が不明な場合やベンチマークベイジアン推論を求めている場合に使用します。これらの事前情報の一部は情報理論の議論によって部分的にサポートされています。