回答:
まず第一に、計算コスト以外に、データセット全体を使用しない理由はありません。ラベル情報を使用しない限り、データから取得できるすべての情報を使用しない理由はありません。
距離の分位数が優れたヒューリスティックなのはなぜですか?SVM問題の解決策は、サポートベクトルにあるRBFカーネルの線形結合です。学習フェーズでは、最適化によりれ、正しい分類を維持しながらマージンが最大化されます。
現在、選択には2つの極端なケースがあります。
ヒューリスティックが適切な選択であることを確認するには、特定の値が、カーネルが特定の値よりも大きくなるRBFカーネルの境界を決定することを認識する必要があります(Normalのone- -quantileなど)分布)。ペアワイズ距離の変位値に従って選択することにより、データポイントの特定の割合がその境界内にあることを確認します。したがって、データのを変更すると、実際には、特定のパーセンテージのデータポイントの意思決定関数にのみ影響します。そのパーセンテージの選択方法は学習問題によって異なりますが、すべての決定関数または1つのデータポイントのみ。
うん!いわゆる「メジアントリック」について説明しています。
私は上記の答えの背後にある直感が本当に好きです。また、RBFの分散の逆であるとして、 を選択する問題を理解する方が簡単だと思います は、RBFが
これで、良いを検索する問題は、ガウス関数(スケーリング係数を引いたもの)の良い分散を探すことと本質的に同じであることは明らかです。
これを行うには、分散推定器を使用しますが、ようないくつかのからの平均二乗距離を介して分散を計算する代わりに、その二乗距離で分位数を計算します。
上記のポスターで述べたように、変位値を使用すると、ガウス関数の1つ(または2つ、または3つ)の標準偏差内にあるデータポイントの数を制御できます。