ガウス過程回帰は、(おそらく)無限量の基底関数を持つベイズ線形回帰に対応する(GPR)とよく言われます。私は現在、GPRを使用してどのようなモデルを表現できるかについての直感を得るために、これを詳細に理解しようとしています。
- これはGPRを理解しようとする良いアプローチだと思いますか?
ブック内の機械学習のためのガウスプロセスラスムッセンとウィリアムズショーはガウスプロセスのセットがパラメータ化指数乗にカーネルによって記載されたもの等価前信念とベイズ回帰として説明することができるW〜N(0、σ 2 のp I)の重みに、フォームの基底関数の無限量φC(X;L)=EXP(- (x−c)2
- 微分可能カーネルのパラメーター化は、常に事前関数と基底関数のパラメーター化に変換できますか、または基底関数の数が構成に依存する微分可能カーネルがありますか?
次の質問は、マーカーの定理の逆についてです。
- 有効なカーネルにつながる基底関数のセットはどれですか?
そして拡張子
- パラメータ化された基底関数のどのセットが有効な微分可能カーネルにつながりますか?