私のブログで不明確でごめんなさい!
注:ベイズのモデル選択とジェフリーズ-リンドレーのパラドックスに関する背景を、クロス検証に関するこの別の回答で提供しました。
ジェフリーズ・リンドレーパラドックスは、周辺尤度の点でベイジアンモデル選択に関連している
場合無意味になる πがある σ -finite尺度(すなわち、無限の質量と測定)よりもむしろ確率測度。この難しさの理由は、無限の質量がなることです πと C π任意の正の定数のために区別できないが、C。特に、ベイズ係数は使用できません。1つのモデルに「フラット」事前分布が与えられている場合は使用しないでください。
m (x )= ∫π(θ )f(x | θ )D θ
πσπC πc
オリジナルのJeffreys-Lindleyパラドックスは、例として正規分布を使用します。モデルを比較するときとX 〜Nは、(θは、1 )ベイズ因子である
B 12 = EXP { - N (ˉ X N )2 / 2 }
X 〜N(0 、1 )
X 〜N(θ 、1 )
これはよくするときに定義されて
πが適切な前ですが、あなたは、通常の前に取れば
N(0、τ2)に
θとしましょう
τ無限大に行く、分母は任意の値に対してゼロになる
ˉ X nはゼロとは異なりますおよび
nの任意の値。(ない限り
τおよび
nは代わりにあなたが直接使用する場合は関連しているが、これは複雑になります!)
π(θ)=Cどこ
cが必ずしも任意の定数、ベイズ因子である
BB12= exp{ − n (x¯n)2/ 2}∫+ ∞- ∞exp{ − n (x¯n- θ )2/ 2}π(θ )D θ
πN(0 、τ2)θτバツ¯nnτnπ(θ )= c
cあろう
B 12 = EXP { - N (ˉ X N )2 / 2 }B12
に、したがって直接依存
C。
B12= exp{ − n (x¯n)2/ 2}C ∫+ ∞- ∞exp{ − n (x¯n- θ )2/ 2}D θ= exp{ − n (x¯n)2/ 2}C 2 π/ n−−−−√
c
さて、事前確率が有益である(したがって適切である)場合、ジェフリーズ・リンドリーのパラドックスが発生する理由はありません。十分な数の観測がある場合、ベイズ因子はデータを生成したモデルを一貫して選択します。(より正確には、データを生成した「真の」モデルに最も近いモデル選択のために考慮されるモデルのコレクション内のモデル。)