データサンプルがます また、共分散関数とGussianプロセスに指定されたゼロ平均があると仮定します。新しい点の分布は、平均および分散ガウス分布になりますベクトルは共分散のベクトルです、行列 k (x 1、x 2)x m (x)= k K − 1 y V (x)= k (x、x)− k K − 1 kD = (X、y)= { x私、y私= y(x私)}Ni = 1k (x1、x2)バツ
m (x)= k K− 1y
V(x)= k (x、x)− k K− 1kT。
k ={k( x、 x1)、… 、k (x、xN)}K= { k (x私、xj)}Ni 、j = 1サンプルの共分散の行列です。サンプル
内挿特性の事後分布の平均値を使用して予測を行う場合。本当に、
ただし、正則化を使用する場合、つまりホワイトノイズ項を組み込む場合は当てはまりません。この場合、サンプルの共分散行列の形式はですが、実関数値の共分散の場合は共分散行列があり、事後平均は
さらに、正則化により、問題の計算がより安定します。
m ( X) = KK−1y = y。
K+ σ私Km ( X)= K( K+ σ私)− 1y ≠ y。
ノイズ分散を選択すると、補間が必要か()、ノイズのある観測を処理するか(は大きい)を選択できます。σσ= 0σ
また、学習サンプルまでの距離に応じて予測の分散が大きくなるため、ガウス過程回帰はローカルメソッドですが、適切な共分散関数を選択し、RBFよりも複雑な問題を処理できます。もう1つの優れたプロパティは、少数のパラメーターです。通常、これはに等しく、はデータ次元です。kO (n )n