なぜガウス過程の平均関数は面白くないのですか?


28

GPについて読み始めたばかりで、平均関数と共分散関数またはカーネルによって特徴付けられる正規のガウス分布に類似しています。私は話をしていましたが、スピーカーは、平均関数は通常非常に面白くなく、すべての推論の努力は正しい共分散関数の推定に費やされていると言いました。

なぜそうなるべきかを誰かが私に説明できますか?

回答:


33

スピーカーが何を得たかはわかっていると思います。個人的に私は彼女に完全に同意していません。そうしない人がたくさんいます。しかし公平を期すために、そうする人も多くいます:)まず、共分散関数(カーネル)を指定することは、関数の事前分布を指定することを意味することに注意してください。カーネルを変更するだけで、二乗指数カーネルによって生成された非常に滑らかで無限に微分可能な関数から、ガウス過程の実現が劇的に変化します

ここに画像の説明を入力してください

「スパイク状」に、指数カーネルに対応する微分不可能な機能(またはMaternカーネルと)ν=1/2

ここに画像の説明を入力してください

それを見る別の方法は、ゼロ平均関数の最も単純なケースで、テストポイントに予測平均(トレーニングポイントでGPを調整することによって取得されたガウス過程予測の平均)を書くことです。バツ

y=kTK+σ21y

ここで、はテストポイントとトレーニングポイント間の共分散のベクトル、はトレーニングポイントの共分散行列、はノイズ項です(設定するだけです)講義がノイズのない予測、すなわちガウス過程補間に関する場合は、はトレーニングセットの観測値のベクトルです。ご覧のとおり、GP事前分布の平均がゼロであっても、予測平均はまったくゼロではなく、カーネルとトレーニングポイントの数に応じて、非常に柔軟なモデルとなり、非常に学習することができます複雑なパターン。X * X 1··· X N Kσσ=0、Y = Y 1... Y Nkバツバツ1バツnKσσ=0y=y1yn

より一般的には、GPの一般化プロパティを定義するのはカーネルです。カーネルの中には、普遍的な近似特性を持つものもあります。つまり、原則として、十分なトレーニングポイントがあれば、コンパクトサブセット上の連続関数を事前に指定された最大許容値に近似できます。

それでは、なぜ平均関数を気にする必要があるのでしょうか?まず、単純な平均関数(線形または直交多項式関数)により、モデルの解釈がはるかに容易になります。GPのように柔軟な(したがって複雑な)モデルでは、この利点を過小評価してはなりません。第二に、何らかの方法でゼロ平均(または価値があり、一定の平均でもある)GPの種類は、トレーニングデータから遠く離れた予測をします。多くの定常カーネル(周期的カーネルを除く)は、であるkバツバツ0distバツバツ。この0への収束は、特に2乗指数カーネルを使用した場合、特にトレーニングセットをうまく適合させるために短い相関長が必要な場合、驚くほど迅速に発生します。したがって、平均関数がゼロのGP は、トレーニングセットから離れるとすぐにを常に予測します。y0

現在、これはアプリケーションで理にかなっている可能性があります。結局のところ、データ駆動型モデルを使用して、モデルのトレーニングに使用されるデータポイントのセットから離れて予測を実行することは、しばしば悪い考えです。これが悪い考えである理由の多くの興味深くて楽しい例のためにここを見てください。この点で、トレーニングセットから常に0に収束するゼロ平均GPは、モデル(たとえば、高次多変量直交多項式モデルなど)よりも安全です。トレーニングデータから逃れます。

ただし、他の場合には、モデルに特定の漸近的挙動を持たせたい場合があります。これは定数に収束しないことです。物理的な考慮から、十分に大きい場合、モデルは線形になる必要があることがわかります。その場合、線形平均関数が必要です。一般に、モデルのグローバルプロパティがアプリケーションにとって重要な場合、平均関数の選択に注意を払う必要があります。モデルのローカル(トレーニングポイントに近い)動作のみに関心がある場合は、平均GPがゼロまたは一定であれば十分すぎる場合があります。バツ


デルタ、あなたは良い平均関数とは何か知っていますか?
海の老人。

1
@Anoldmanintheseaそれはアプリケーションに大きく依存します。私が説明したように、あなたが解釈可能なモデルを必要とするか、「遠く」あなたのトレーニングセットからの予測に興味を持っている場合を除き、それはむしろ平均機能よりも、共分散機能を向上させることにあなたの努力を集中するために、おそらく良いだろう
DeltaIV

1
デルタは、よく私の場合、私は...私はここにこの質問をしてきました遠く離れた観測データからかもしれいくつかの予測をしようとする必要がstats.stackexchange.com/questions/375468/...
老人に海。

6

講義をしていた人に代わって話すことはできません。おそらく、発言者がその発言をしたときに、発言者は異なる考えを念頭に置いていたでしょう。ただし、GPから事後予測を構築しようとしている場合、定数平均関数には正確に計算できる閉形式の解があります。ただし、より一般的な平均関数の場合は、シミュレーションなどの近似方法に頼らなければなりません。

さらに、共分散関数は、平均関数からの偏差の発生速度(および場所)を制御するため、より柔軟な/硬い共分散関数が、より華やかな平均関数を近似するのに「十分」である場合がよくあります。定数平均関数の便利なプロパティへのアクセス。


その説明をありがとう。ええ、私は私の質問をすることができず、このための原則的な理由があるかどうか疑問に思っていました。
ルカ

6

おそらくスピーカーが意図したものではなかったと思われる説明をします。一部のアプリケーションでは、手段は常に退屈です。たとえば、自己回帰モデル売上を予測するとします。長期的な平均は明らかにです。面白いですか?yt=c+γyt1+etE[yt]μ=c1γ

それはあなたの目的に依存します。あなたが店の評価後にしている場合、それはあなたが増加する必要があることを示していますまたは減少:値がで与えられるので、店舗の価値を高めるためにあります割引率。したがって、平均値は明らかに興味深いものです。cγ

V=μr
r

流動性に興味がある場合、つまり、今後数か月の費用を賄うのに十分な現金がある場合、平均はほとんど無関係です。来月の現金予測を見ています: したがって、今月の売上は今では要因です。

y1=c+γy0
y0

6

非常に良い理由の1つは、モデル化する関数の空間に平均関数が存在しない可能性があることです。各入力ポイントには、対応する事後平均ます。ただし、これらの事後平均点は、他のデータが表示される前の予想です。そのため、観測された将来のデータがその平均関数を作成しない状況は多くありません。バツμバツ

簡単な例:未知のオフセットと既知の周期および振幅1を持つ正弦関数を近似することを想像してください。前の平均はすべてのについてゼロです、一定の線は、説明した正弦関数の空間には存在しません。共分散関数は、追加の構造情報を提供します。バツ


0

簡単に言えば、平均関数は、観測から「遠く離れた」入力の共分散関数を支配します。
これは、システムのマクロダイナミクスに事前知識を注入する方法です。


1
あなたの答えがわかりません。明確にできますか?
マイケルR.チャーニック
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.