ケビンマーフィーのガウス分布の共役ベイズ分析では、事後予測分布は
p(x∣D)=∫p(x∣θ)p(θ∣D)dθ
ここで、はモデルが適合するデータであり、は見えないデータです。私が理解していないのは、積分の最初の項でへの依存がなくなる理由です。確率の基本的なルールを使用して、私は期待したでしょう:DxD
p(a)p(a∣b)p(x∣D)=∫p(a∣c)p(c)dc=∫p(a∣c,b)p(c∣b)dc↓=∫p(x∣θ,D)⋆p(θ∣D)dθ
質問:用語への依存がなくなるのはなぜですか?D⋆
それだけの価値があるので、この種の定式化(条件付きの変数を削除する)の他の場所を見てきました。たとえば、Ryan AdamのBayesian Online Changepoint Detectionでは、事後予測を次のように書いています。
p(xt+1∣rt)=∫p(xt+1∣θ)p(θ∣rt,xt)dθ
ここでも、、期待していましたD={xt,rt}
p(xt+1∣xt,rt)=∫p(xt+1∣θ,xt,rt)p(θ∣rt,xt)dθ