トレーニングセットのサイズがバニラGPで禁止され始めたが、それでもそれほど大きくない場合、予測の不確実性を伴うノンパラメトリック非線形回帰のためのガウスプロセス(GP)の最新の代替手段は何ですか?
私の問題の詳細は:
- 入力空間は低次元です(、)
- 出力は実数値です()
- トレーニングポイントは、標準のGP(近似なし)で処理できるものよりも1桁程度大きい
- 近似する関数はブラックボックスです。連続性と滑らかさの相対的な程度を仮定できます(たとえば、GPには\ nu = \ frac {5} {2}の Matérn共分散行列を使用します)
- クエリされた各ポイントについて、近似は予測の平均と分散(または不確実性の類似の測定)を返す必要があります
- 1つまたはいくつかの新しいトレーニングポイントがトレーニングセットに追加されたときに、メソッドが比較的高速(数秒程度)で再トレーニング可能である必要があります
どんな提案も歓迎します(メソッドへのポインタ/言及と、それがうまくいくと思う理由)。ありがとうございました!
1
スパースGPについてはどうですか?誘導ポイントを適切に配置し、入力と出力の間に疎な関係がある場合、トレーニングポイントはXeonワークステーションでは簡単なことです。
—
DeltaIV
@DeltaIVに感謝します。答えのポイントは「誘導点の配置が良い」だと思います。良い誘導点(はブラックボックス)を見つけることは難しい問題のようです。どの種類の近似をお勧めしますか?(例:FITC?)実際にはうまくいきますか?
—
lacerbi 2016
もちろん、あなたはデータから彼らの位置を学びます。いいえ、FITCはVFEよりも劣っています。こちらをご覧ください:arxiv.org/pdf/1606.04820v1.pdf。訓練データセットの次元とサイズはあなたのものと似ています。
—
DeltaIV
ノンパラメトリックな非線形回帰法が厳密に必要ですか?私はあなたのアプリケーションについては知りませんが、計算力学と流体力学(がブラックボックスで古典的なケース)では、直交多項式回帰に似た方法が非常にうまく機能します。それ以外の場合は、MARSまたはGAMを試すことができます(ただし、GAMは付加的です)。
—
DeltaIV
最後に、私はそれらを使用したことがありませんが、ランダムフォレストと極端なグラディエントブースティングはどちらも、大規模なトレーニングセットを使用する高次元の問題に対する一般的なノンパラメトリック非線形回帰法です。
—
DeltaIV