私はWagenmakers(2007)を読んでいます。p値の一般的な問題に対する実用的な解決策です。BIC値をベイズ因子と確率に変換することに興味をそそられます。しかし、これまでのところ、以前の単位情報が正確に何であるかをよく理解していません。この特定の以前の写真、または写真を生成するためのRコードの説明に感謝します。
私はWagenmakers(2007)を読んでいます。p値の一般的な問題に対する実用的な解決策です。BIC値をベイズ因子と確率に変換することに興味をそそられます。しかし、これまでのところ、以前の単位情報が正確に何であるかをよく理解していません。この特定の以前の写真、または写真を生成するためのRコードの説明に感謝します。
回答:
事前情報の単位情報は、データに依存する事前情報(通常は多変量正規)であり、MLEでの平均と、1つの観測によって提供される情報と同じ精度です。詳細については、たとえばこの技術レポートやこのペーパーを参照してください。UIPのアイデアは、「データにそれ自体が語らせる」という事前条件を与えることです。ほとんどの場合、他のデータが「指し示している」場所を中心とする1つの観測値を示すpreorを追加しても、その後の分析にはほとんど影響しません。その主な用途の1つは、BICの使用が、大きなサンプルでは、ベイズ因子の使用に対応し、パラメーターのUIPに対応することを示すことです。
多くの適用された問題について、多くの統計学者(ベイジアンを含む)がベイズ因子やBICの使用に不快であることも、おそらく注目に値します。
以前の単位情報は、次の活用の解釈に基づいています。
したがって、データを観測した後、観測とデータが観測される前に仮定されたものの凸の組み合わせに集中する事後があります。 、です。また、後方の分散は、その後で与えられる我々が持っているかのように、したがって、なく観察 μ ˉ X A σ 2、N+1、N ˉ X A標本平均の標本分布を比較しました。サンプリング分布は事後分布と同じではないことに注意してください。それにもかかわらず、後部の種類はそのように見え、データがそれ自体を物語っています。したがって、前の単位情報では、ほとんどがデータに集中する事後が得られ、1回限りのペナルティとして前の情報向かって縮小されます。
さらに、KassとWassermanは、モデルの選択と比較を示しました。前の例は、シュワルツ基準(基本的に、 BIC / 2)が大きい場合。M 1:μ ∈ R nは