ベイジアンp値にデータに加えてパラメーターが含まれるのはなぜですか?
Gelmanのベイジアンデータ分析の146ページで、Gelmanはモデルの適合性をチェックする方法としてベイジアンp値について説明しています。アイデアは、観測データ()を、実験を再現した場合にモデルによって生成された可能性のあるデータ()と比較することです。yyyyrepyrepy^{rep} 彼はベイジアンp値を次のように定義しています。 pB=Pr(T(yrep,θ)≥T(y,θ)|y)pB=Pr(T(yrep,θ)≥T(y,θ)|y) p_B = Pr(T(y^{rep}, \theta) \geq T(y, \theta) | y) テスト統計をパラメーターの関数であるにするのが理にかなっている理由がよくわかりません。実際、目標が「観測されたデータとモデルによって生成された可能性のあるデータとの比較」である場合、比較は厳密にと間で行われるべきではありませんか?θθ\thetayyyyrepyrepy^{rep} たとえば、同じページのGelmanは、通常のモデルの適合性をチェックする例を提供しています。テスト統計は次のとおりです。 T(y,θ)=|y(61)−θ|−|y(6)−θ|T(y,θ)=|y(61)−θ|−|y(6)−θ| T(y, \theta) = | y_{(61)} - \theta | - |y_{(6)} - \theta | ここで、は通常のモデルの平均です。この検定統計量は、6次および61次の統計量を超えて、極端な尾でのモデルの適合を無視するように設計されています。θθ\theta 代わりに次の検定統計量を使用して、純粋にデータに依存しないのはなぜですか? T(y,θ)=|y(61)−y¯|−|y(6)−y¯|T(y,θ)=|y(61)−y¯|−|y(6)−y¯| T(y, \theta) = | y_{(61)} - \bar y | - |y_{(6)} - \bar y |