タグ付けされた質問 「bayes-factors」

2
尤度比とベイズ係数
特定の現象に対する/に対する客観的な証拠を表すための尤度比の使用に関しては、むしろ伝道的です。しかし、最近、ベイズ因子がベイジアン手法のコンテキストで同様の機能を果たすことを学びました(つまり、主観的な事前確率を客観的なベイズ因子と組み合わせて、客観的に更新された主観的な信念状態を生成します)。私は現在、尤度比とベイズ因子の計算上の違いと哲学的な違いを理解しようとしています。 計算レベルでは、尤度比は通常、各モデルのそれぞれのパラメーター化の最大尤度を表す尤度を使用して計算されますが(相互検証によって推定されるか、AICを使用してモデルの複雑さに応じてペナルティが課される)、明らかにベイズ因子は(MLEだけでなく)パラメーター空間全体で統合された各モデルの尤度を表す尤度。この統合は、通常どのように実際に達成されますか パラメーター空間から数千(数百万)のランダムサンプルのそれぞれで尤度を計算しようとするだけですか、それともパラメーター空間全体で尤度を統合するための分析方法がありますか?さらに、ベイズ係数を計算するとき、 また、尤度比とベイズ因子の哲学的違いは何ですか(nb尤度比とベイズ法一般の哲学的違いについては質問していませんが、具体的に客観的証拠の表現としてのベイズ因子です)。尤度比と比較して、ベイズ因子の意味をどのように特徴付けることができますか?

3
ベイズ係数とp値に使用されるカットオフがなぜそれほど異なるのですか?
ベイズファクター(BF)を理解しようとしています。2つの仮説の尤度比のようなものだと思います。したがって、BFが5の場合、これはH1がH0の5倍可能性が高いことを意味します。また、3〜10の値は中程度の証拠を示し、10を超える値は強い証拠を示します。 ただし、P値の場合、伝統的に0.05がカットオフとして使用されます。このP値では、H1 / H0の尤度比は約95/5または19になります。 それでは、BFに対して3を超えるカットオフが採用され、P値に対して19を超えるカットオフが採用されるのはなぜですか?これらの値もどこにも近くありません。

1
ベイズ因子の更新
ベイズ因子は、仮説のベイズ検定とベイジアンモデルの選択で、2つの周辺尤度の比によって定義されます:iidサンプルとそれぞれのサンプリング密度と、対応するおよび場合、2つのモデルを比較するためのベイズ係数は 本私は現在検討していますが、その奇妙な文がベイズ因子上記(x1,…,xn)(x1,…,xn)(x_1,\ldots,x_n)f1(x|θ)f1(x|θ)f_1(x|\theta)f2(x|η)f2(x|η)f_2(x|\eta)π1π1\pi_1π2π2\pi_2B12(x1,…,xn)=defm1(x1,…,xn)m2(x1,…,xn)=def∫∏ni=1f1(xi|θ)π1(dθ)∫∏ni=1f2(xi|η)π2(dη)B12(x1,…,xn)=defm1(x1,…,xn)m2(x1,…,xn)=def∫∏i=1nf1(xi|θ)π1(dθ)∫∏i=1nf2(xi|η)π2(dη)\mathfrak{B}_{12}(x_1,\ldots,x_n)\stackrel{\text{def}}{=}\frac{m_1(x_1,\ldots,x_n)}{m_2(x_1,\ldots,x_n)}\stackrel{\text{def}}{=}\frac{\int \prod_{i=1}^n f_1(x_i|\theta)\pi_1(\text{d}\theta)}{\int \prod_{i=1}^n f_2(x_i|\eta)\pi_2(\text{d}\eta)}B12(x1,…,xn)B12(x1,…,xn)\mathfrak{B}_{12}(x_1,\ldots,x_n)は、「個々のもの[ベイズ係数]を掛け合わせることによって形成されます」(p.118)。これは分解 が、による更新として、この分解には計算上の利点がないようですは、元の計算と同じ計算量を必要としますB12(x1,…,xn)=m1(x1,…,xn)m2(x1,…,xn)=m1(xn|x1,…,xn−1)m2(xn|x1,…,xn−1)×m1(xn−1|xn−2,…,x1)m2(xn−1|xn−2,…,x1)×⋯⋯×m1(x1)m2(x1)B12(x1,…,xn)=m1(x1,…,xn)m2(x1,…,xn)=m1(xn|x1,…,xn−1)m2(xn|x1,…,xn−1)×m1(xn−1|xn−2,…,x1)m2(xn−1|xn−2,…,x1)×⋯⋯×m1(x1)m2(x1)\begin{align*}\mathfrak{B}_{12}(x_1,\ldots,x_n)&=\frac{m_1(x_1,\ldots,x_n)}{m_2(x_1,\ldots,x_n)}\\&=\frac{m_1(x_n|x_1,\ldots,x_{n-1})}{m_2(x_n|x_1,\ldots,x_{n-1})}\times \frac{m_1(x_{n-1}|x_{n-2},\ldots,x_1)}{m_2(x_{n-1}|x_{n-2},\ldots,x_1)}\times\cdots\\&\qquad\cdots\times\frac{m_1(x_1)}{m_2(x_1)}\end{align*}m1(xn|x1,…,xn−1)m2(xn|x1,…,xn−1)m1(xn|x1,…,xn−1)m2(xn|x1,…,xn−1)\frac{m_1(x_n|x_1,\ldots,x_{n-1})}{m_2(x_n|x_1,\ldots,x_{n-1})}m1(x1,…,xn)m2(x1,…,xn)m1(x1,…,xn)m2(x1,…,xn)\frac{m_1(x_1,\ldots,x_n)}{m_2(x_1,\ldots,x_n)}外の人工おもちゃの例。 質問:ベイズ係数をからに 更新する一般的で計算効率の高い方法はありますか辺縁全体および 再計算する必要はありませんか?B12(x1,…,xn)B12(x1,…,xn)\mathfrak{B}_{12}(x_1,\ldots,x_n)B12(x1,…,xn+1)B12(x1,…,xn+1)\mathfrak{B}_{12}(x_1,\ldots,x_{n+1})m1(x1,…,xn)m1(x1,…,xn)m_1(x_1,\ldots,x_n)m2(x1,…,xn)m2(x1,…,xn)m_2(x_1,\ldots,x_n) 私の直感は、ベイズ係数一度に1つずつ新しい観測値に推定することに沿って進むパーティクルフィルター以外に、この質問に答える自然な方法はないということです。B12(x1,…,xn)B12(x1,…,xn)\mathfrak{B}_{12}(x_1,\ldots,x_n)

1
高校でのベイズモデルの比較
私は高校生に物理学を教えています。生徒たちに、実験のデータについて初歩的なベイズモデル比較を行ってもらいたいと思います。私は彼らがそうする方法を考え出しました(以下を参照)が、それが正しいかどうかはわかりません。私はそれについてのフィードバック(特に否定的なフィードバック!)、またはそれをより良くする方法についての提案をいただければ幸いです。 勾配aaaと切片パラメーターを持つ線形理論bbbを、定数の帰無仮説、つまり勾配aaa = 0 と比較します。どちらの場合も、ガウス対称ノイズを想定しています。 学生は、Excel、勾配と切片のための最尤推定値(使用して、導き出すことができ、およびBを)、およびそのエラーがdのとD Bを。a^a^\hat{a}b^b^\hat{b}dadadadbdbdb 斜面上の前のため、私は、広いガウス分布を考慮し、最大=尤推定(を中心)とその10倍の標準偏差。私の推論は、現実的には「正しい」ラインパラメータを少なくとも1マグニチュード内に見つけることを期待しており、実際にはより近いものを見つけるため、「正しい」スロープをMLEに置き換えても変更しません数が多すぎます。a^a^\hat{a} いずれかの特定の線形理論与えられた証拠の可能性のために、私は、標準偏差(と、標準の多変量ガウス分布を考慮しての二乗残差和に関連します)。σeσe\sigma_e したがって、一般的に線形理論の証拠の尤度、つまり上記の事前確率と尤度の積分は、MLEポイントでの事前尤度と尤度に勾配誤差を掛けたものと推定されます。dadada 帰無仮説所与の証拠の可能性について(全標準偏差を用いて、他の多変量ガウス分布であると仮定される平均-Yとの差に基づいて、)。σTσT\sigma_T これは、私が確信が持てない部分です。ベイズ係数を上記の2つの尤度(上記の3と4)の比率であると推定します。これにより、次の式を考え出すことができます。 B10= da(10 | a^| ⋅ 2 π√)(σT/ σe)N⋅ E√B10=da(10|a^|⋅2π)(σT/σe)N⋅eB_{10}=\frac{da}{(10 |\hat{a}| \cdot \sqrt{2 \pi})}(\sigma_T/\sigma_e)^N\cdot \sqrt{e} これにより、ベイズ因子の合理的な推定が得られますか?どんなフィードバックでも大歓迎です。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.