予測不確実性を伴うノンパラメトリック非線形回帰(ガウスプロセス以外)


7

トレーニングセットのサイズがバニラGPで禁止され始めたが、それでもそれほど大きくない場合、予測の不確実性を伴うノンパラメトリック非線形回帰のためのガウスプロセス(GP)の最新の代替手段は何ですか?

私の問題の詳細は:

  • 入力空間は低次元です(、)XRd2d20
  • 出力は実数値です()YR
  • トレーニングポイントは、標準のGP(近似なし)で処理できるものよりも1桁程度大きい103N104
  • 近似する関数f:XYはブラックボックスです。連続性と滑らかさの相対的な程度を仮定できます(たとえば、GPには\ nu = \ frac {5} {2}の Matérn共分散行列を使用しますν=52
  • クエリされた各ポイントについて、近似は予測の平均と分散(または不確実性の類似の測定)を返す必要があります
  • 1つまたはいくつかの新しいトレーニングポイントがトレーニングセットに追加されたときに、メソッドが比較的高速(数秒程度)で再トレーニング可能である必要があります

どんな提案も歓迎します(メソッドへのポインタ/言及と、それがうまくいくと思う理由)。ありがとうございました!


1
スパースGPについてはどうですか?誘導ポイントを適切に配置し、入力と出力の間に疎な関係がある場合、トレーニングポイントはXeonワークステーションでは簡単なことです。104
DeltaIV

@DeltaIVに感謝します。答えのポイントは「誘導点の配置が良い」だと思います。良い誘導点(はブラックボックス)を見つけることは難しい問題のようです。どの種類の近似をお勧めしますか?(例:FITC?)実際にはうまくいきますか?f
lacerbi 2016

1
もちろん、あなたはデータから彼らの位置を学びます。いいえ、FITCはVFEよりも劣っています。こちらをご覧ください:arxiv.org/pdf/1606.04820v1.pdf。訓練データセットの次元とサイズはあなたのものと似ています。
DeltaIV

3
ノンパラメトリックな非線形回帰法が厳密に必要ですか?私はあなたのアプリケーションについては知りませんが、計算力学と流体力学(がブラックボックスで古典的なケース)では、直交多項式回帰に似た方法が非常にうまく機能します。それ以外の場合は、MARSまたはGAMを試すことができます(ただし、GAMは付加的です)。f
DeltaIV

2
最後に、私はそれらを使用したことがありませんが、ランダムフォレストと極端なグラディエントブースティングはどちらも、大規模なトレーニングセットを使用する高次元の問題に対する一般的なノンパラメトリック非線形回帰法です。
DeltaIV

回答:


1

5/2のMatérn共分散行列は、ほぼ乗指数カーネルに収束しています。ν=5/2

したがって、このシナリオでは、放射基底関数(RBF)ベースのアプローチが最適だと思います。それは高速であり、あなたが持っている一種のブラックボックス機能で機能し、不確実性の測定値を得ることができます。

GPの誘導点近似を使用することもできます。文献でFITCを参照してください。ただし、誘導点を選択する場所について同じ問題があります。


ありがとう。私はRBFを知っていましたが、不確実性の適切な測定値を取得することが可能/簡単であることを知りませんでした(RBF +不確実性は、SEカーネルのGPにかなり戻ると思いました)。RBFを読むための開始点と、それらを使用して不確実性を計算する方法を推奨できますか?
lacerbi 2016

1
まあ、それは基本的に基底関数を使ったベイズ線形回帰です。また、基底関数をガウス関数にすることもできます。したがって、パラメーターに事前分布を割り当てるだけで、事後分布が得られます。ビショップの本「パターン認識」の6.4.1章の手順に従ってください。また、あなたのプロフィールから、共通の関心が高いことがわかります。連絡を取り合うのは良いことかもしれません:-)できるときは私が喜んでお手伝いします。
補助的な

6.4.1章を見てみました。これはGPとどのように異なる/速いのですか?トレーニングについては、LBFGSを介して損失を最小限に抑えることができることを理解しています(そして、おそらくもっと賢い方法もあります)。これは、RBFがGPよりも高速にフィットする理由を理解している(GPのボトルネックは、行列の反転です)。しかし、予測された不確実性を計算するには、観測された点に条件を付ける必要があります-これには、行列の行列の反転が必要ですか?(トレーニングポイント数)MMM
lacerbi

申し訳ありませんが、おそらく第3章のベイジアン線形回帰を見てみるべきだと思います。ベイジアン線形回帰モデルは正しいです。ベイジアン線形回帰モデルは、特別なカーネル関数を備えたGPに相当するので、予測分布は、行列を反転する必要があります。線形方程式系を後方/前方に解くことにより、賢い方法でそれを行うことができます。
補助的な
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.