「情報価値のない事前」とは何ですか?本当に情報のないものはありますか?


73

この質問からのコメントに触発されました:

事前情報で「情報価値のない」と考えるものと、情報価値のない事前情報に含まれている情報は何ですか?

私は通常、ベイジアン分析からいくつかの素晴らしい部分を借りようとする頻繁なタイプの分析である分析で事前を参照します(「それが最もホットなこと」に至るまでのいくつかの簡単な解釈である)、指定された事前分布は均一0を中心とした効果測定の境界を横切って分布しかしアサートする前に形状を-ただ平坦であることを起こります。

使用する前に、より有益な情報がありますか?


2
たぶん、あなたはいわゆる最大エントロピーの原理を見て楽しむでしょう。完全な答えでそれを拡大する気はありません。Wikipediaの記事は質が高いようです。一部の貢献者は、私よりもはるかに優れていると確信しています。
エルビス

回答:


93

[警告:ISBAの客観ベイズセクションのカード保有メンバーとして、私の見解はすべてのベイジアン統計学者を代表するものではありません!、まったく逆です...]

要約すると、「情報がまったくない」事前のようなものはありません。

確かに、「情報価値のない」事前は、悲しいことに誤名です。事前配布には、ある程度の情報に類似した仕様が含まれています。均一(または特に)均一な事前。実際、均一な事前分布は、問題の特定のパラメーター化に対して1つだけフラットです。あるパラメータ化(境界のあるパラメータ化も含む)に変更すると、変数のヤコビアンの変化が画像と密度に反映され、事前分布はフラットではなくなります。

エルビスが指摘したように、最大エントロピーは、いわゆる「情報価値のない」事前選択を提唱するアプローチの1つです。しかしそれは(a)の十分な必要との情報いくつかの瞬間の上の事前分布のπ ⋅を制約を指定するΘの H θ hθπ MAXENT前につながる 、π *θ α EXP { λ T H θ } と基準測定の(b)の予備選択 D μ θ [連続的な設定で]を、議論を初期段階に戻す選択肢です!(さらに、制約のパラメーター化(つまりの選択)は、結果のMaxEnt事前分布の形状に影響します。)

Θhθdπθ=h0
πθexp{λThθ}
dμθh

ホセ・ベルナルドは、事前と事後の間のカルバック距離を最大化することによりデータによってもたらされる情報を最大化するために事前確率を選択する参照事前確率の独自の理論を作成しました。迷惑パラメータのない最も単純なケースでは、解決策はジェフリーズの事前です。より複雑な問題では、(a)関心のあるパラメータの選択(または、関心のある順序のランク付け)を行う必要があります。(b)事前確率の計算はかなり複雑であり、不適切な問題を回避するために一連の組み込みコンパクトセットが必要です。(詳細については、例えば、ベイジアン選択を参照してください。)

興味深いひねりを加えて、ベイジアンの視点の外の研究者は、明示的な事前構造またはこのパラメーター空間の支配的な尺度なしに、周波数ベースの手順からの反転によって構築された、パラメーター空間上の確率分布である信頼分布と呼ばれる手順を開発しています。彼らは、明確に定義された事前分布が存在しないことはプラスであると主張しているが、結果は間違いなく初期化頻度ベースの手順の選択に依存

要するに、「the」「informative」事前の「最良」(または「より良い」)選択はありません。そして、ベイジアン分析の本質は、事前分布の選択が重要であることを示唆しているため、これは物事がどうあるべきかと考えます。そして、事前の比較はありません:1つは別よりも「良い」ことはできません。(少なくともデータを観察する前:一度観察すると、事前の比較がモデルの選択になります。)ホセ・ベルナルド、ジム・バーガー、ドンチュ・サン、および他の多くの「客観的」ベイジアンの結論は、ほぼ同等の参照事前があることです。自分の以前の情報が不明な場合やベンチマークベイジアン推論を求めている場合に使用します。これらの事前情報の一部は情報理論の議論によって部分的にサポートされています。


14
(+1)本?くそっ。私はあなたのために387の質問があります:)
エルビス

4
(+1)客観的(まさしく!)、簡単な答え。
枢機

2
+1問題の適切で十分な情報に基づいた概要をありがとう。
whuber

2
傑出した答え。ありがとうございました。そしてさらに別の本がウィッシュリストに載っています。
フォマイト

1
それはほとんど不公平です。結局のところ、彼はクリスチャンロバートです!冗談だ。素晴らしい答え。そして、@ Xi'anが彼のブログの投稿で、特に「情報価値のない」優先事項のトピックにとってパラメーター化がどのように重要であるかについて、それを拡張できればと思います。
マノエルガルディーノ

16

公式の非情報的事前分布の魅力的な特性は、「頻度の一致する特性」です。これは、事後の95%信頼区間が(少なくとも、およそ)頻度95%の信頼区間であることを意味します。この情報は、ベルナルドの事前参照を保持しますが、これらの非情報事前の基金は、頻度の高いマッチングプロパティの達成に向けられていません。均一分布またはガウスなどの「単純」(「フラット」)非情報事前を使用する場合分散が非常に大きい場合、頻繁に一致するプロパティが保持されるという保証はありません。たぶん、ベルナルドの参照事前は、情報価値のない事前の「最良の」選択と見なすことはできませんが、最も成功したものと見なすことができます。


9

ジェフリーズ分布も不整合に苦しむ:ジェフリーズの上変数の事前確率上又は0 ジェフリーズ確率パラメータの前の場合とされない、不適切であるP:メジャーDのP / 0pの質量有するπにわたって01dp/p1pπ01

Renyiは、情報価値のない分布を不適切な積分に関連付ける必要があることを示しました。代わりに、この困難を回避し、変数の変化の下で不変であるロステの分布を参照してください(たとえば、場合、メジャーはd p / p 1 p )。pdp/p1p


まず、翻訳は良いです!

E. LHOSTEの場合:「確率論の計算」、1921年5月、91号書

A. RENYIの場合:「確率の新しい公理理論について」Acta Mathematica、Academie des Sciences hongroises、tome VI、fasc.3-4、1955

私は追加することができます。


3
Google翻訳などの自動翻訳サービスを使用して、これが非常に不十分な場合でも、これを英語で書き直すことは可能ですか?フランス語と英語の両方に堪能な他のユーザーは、あなたのためにそれをコピー編集するのを手伝うことができます。
シルバーフィッシュ

3
ログσログp/1p001001R

2
log()ロジット

3

私は、西安の優れた答えに同意し、情報を運んでいないという意味で「情報価値のない」事前分布は一つもないことを指摘しています。このトピックを拡張するために、不正確な確率フレームワーク内でベイジアン分析を行うことが1つの選択肢であることを指摘したかった(特にWalley 1991Walley 2000を参照)。このフレームワーク内では、事前の信念は一連の確率分布によって表されますn

この分析フレームワークは、ウォルリー独自の特別な形式の確率的分析として公理化されていますが、事前セットを使用したロバストなベイジアン分析と本質的に同等であり、対応する事後セットを生成します。多くのモデルでは、値の可能な範囲全体でいくつかのモーメント(たとえば、前の平均)が変化することを可能にする「情報価値のない」事前セットを設定できます。より緊密に。この形式の分析は、少なくとも許容範囲全体で変化する可能性のあるモーメントに関しては、「情報価値がない」と呼ばれるというより良い主張を持っています。


バツ1バツn|θIIDベルンθθμκ>1

π0θ|μκ=ベータθ|μκ=ベータθ|α=μκ1β=1μκ1

Eθ=μVθ=μ1μ/κ

P0{ベータμκ|0μ1}

s==1nバツ

Pバツ={ベータs+μκ1n+κ1n+κ|0μ1}

事後予測の可能な値の範囲は次のとおりです。

sn+κ1Eθ|バツs+κ1n+κ1

nθ


+1。面白い。最後の方程式のカッパとは何ですか?河童星でしょうか?
amoebaは

κ
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.