私はGPMLブックを読んでおり、第2章(15ページ)で、Gaussian Process(GP)を使用して回帰を行う方法を説明していますが、それがどのように機能するかを理解するのに苦労しています。
パラメトリックモデルのベイズ推定では、まずモデルパラメーター事前分布、つまりp (θ )を選択します。次に、トレーニングデータDが与えられたときに、尤度p (D | θ )を計算します。そして最後に、我々は後方持っθのように、P (θ | D )で使用される、予測分布P (Y * | X *、D )= ∫ P (Y * 以上、そして、我々は右、パラメトリックモデルのためのベイズ推論で何ですか?
さて、本で述べたように、GPはノンパラメトリックであり、私が理解している限り、平均関数 と共分散関数k (x 、x ′)を指定した後、関数fに GPがあります、F 〜G P (M 、K )、そしてこれは前のF。これで、ノイズのないトレーニングデータセットD = { (x 1、f 1)ができました。
しかし、それは本がすることではありません!つまり、前の指定した後は、尤度と事後は計算されませんが、予測予測に直接進みます。
質問:
1)尤度と事後を計算しないのはなぜですか?GPがノンパラメトリックだからといって、それを行わないのですか?