ガウス過程を理解しようとしています


9

私はGPMLブックを読んでおり、第2章(15ページ)で、Gaussian Process(GP)を使用して回帰を行う方法を説明していますが、それがどのように機能するかを理解するのに苦労しています。

パラメトリックモデルのベイズ推定では、まずモデルパラメーター事前分布、つまりp θ )を選択します。次に、トレーニングデータDが与えられたときに、尤度p D | θ を計算します。そして最後に、我々は後方持っθのように、P θ | D で使用される、予測分布P Y * | X *D = P Y *θp(θ)Dp(D|θ)θp(θ|D) 以上、そして、我々は右、パラメトリックモデルのためのベイズ推論で何ですか?

p(y|x,D)=p(y|x,θ)p(θ|D)dθ

さて、本で述べたように、GPはノンパラメトリックであり、私が理解している限り、平均関数 共分散関数k x x )を指定した後、関数fに GPがあります、F G P M K 、そしてこれはF。これで、ノイズのないトレーニングデータセットD = { x 1f 1)ができました。m(x) k(x,x)f

fGP(m,k)
f可能性 p D | f を計算し、次に事後 p f | D を計算し、最後に事後を使用して予測を行う必要があると考えました。
D={(x1,f1),...,(xn,fn)}
p(D|f) p(f|D)

しかし、それは本がすることではありません!つまり、前の指定した後は、尤度と事後は計算されませんが、予測予測に直接進みます。p(f)

質問:

1)尤度と事後を計算しないのはなぜですか?GPがノンパラメトリックだからといって、それを行わないのですか?

ff

f


個人的には、GP回帰はベイジアンアプローチの手順に従っていないため、GP回帰はベイジアン推論に属しているとは思いません。GPのいわゆる予測分布は、前ののトレーニングデータとテストデータ結合し、次にトレーニングデータに条件を付けることで得られます。尤度や事後は利用されません。
アボカド2014年

回答:


2

上記は、パラメトリックモデルのベイジアン推論で行うことです。

本は、パラメーターに事後がある場合、パラメトリックモデルまたは他のベイジアン法と同じベイジアンモデル平均化を使用しています。

これでノイズのないトレーニングデータセットができました

「ノイズフリー」である必要はありません。後のページを参照してください。

しかし、それは本がすることではありません!つまり、前のp(f)を指定した後は、尤度と事後は計算されませんが、予測予測に直接進みます。

これを見てください:https//people.cs.umass.edu/~wallach/talks/gp_intro.pdf

私は、17ページで、以前の可能性と後で可能性があると思います。導関数を記述し、事後を見つけ、(重み空間ビューのように)予測のために事後を平均すると、平均と共分散について19ページと同じ方程式が得られると思います。


p(f|f)

条件を見つけることは、基本的にベイズの公式を使用しています。従来のベイズの定式化での記述は、GPにとって少し面倒です。彼らは単に条件を見つけることを参照し、....
ダニエル

p(x|y)=p(x,y)/p(y)p(x|y)=p(y|x)p(x)/p(y)

そして、あなたがすることによって、「従来のベイズの製剤で何かを書くことがGPS用面倒です」のコメントで言ったように、従来のベイズの製剤、もしかして、最初の事後計算、その後、予測分布の計算PをF * | D = P F * | F p(f|D)p(f|D)=p(f|f)p(f|D)df
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.