セクション9.2「ダダ、ハート、コウノトリのパターン分類における分類子の固有の優位性の欠如」で使用されている表記について質問があります。まず、本から関連するテキストをいくつか引用します。
- 簡単にするために、トレーニングセットがパターンおよび関連するカテゴリラベル で...で構成される2つのカテゴリの問題を考えます。。。、nは、学習する未知のターゲット関数によって生成されます。ここで、です。
- ましょ(離散)の仮説のセット、または学習するパラメータの可能なセットを示します。特定の仮説H (X )∈ H ツリーの量子化されたニューラルネットワークにおける重み、または機能的モデルのパラメータ0、または決定のセットによって記述することができる、など。
- さらに、は、アルゴリズムがトレーニング後に仮説hを生成する事前確率です。これはhが正しい確率ではないことに注意してください。
- 次に、は、アルゴリズムがデータDでトレーニングされたときに仮説hを生成する確率を示します。最近傍や決定木などの決定論的学習アルゴリズムでは、 P (h | D )は、単一の仮説hを除いてどこでもゼロになります。確率的手法(ランダムな初期重みから学習されたニューラルネットワークなど)または確率的ボルツマン学習の場合、P (h | D )は広範な分布になります。
- してみましょうゼロ-1または他の損失関数のエラーこと。
真の関数があり、k番目の候補学習アルゴリズムの確率がP k(h (x )| D )である場合、予想されるトレーニングセット分類誤差はE k(E | F 、n )= Σ X ∉ D P (X )[ 1 - δ (F (X )、H (X
定理9.1。(無料昼食なし) 2つの学習アルゴリズムおよびP 2(h | D )の場合、サンプリング分布P (x )およびトレーニングポイントの数nに関係なく、次のことが当てはまります。
すべてのターゲット関数で均一に平均化された、E 1(E | F 、n )— E 2(E | F 、n )= 0
固定トレーニングセット場合、F、 E 1(E | F 、D )で均一に平均化— E 2(E | F 、D )= 0
パート1は、実際に言っている
パート2は実際には∑ F [ E 1(E | F 、D )— E 2(E | F 、D )] = 0と言っています
私の質問は
- 式中、すなわちE K(E | F 、N )= Σ X ∉ D P (X )[ 1 - δ (F (X )、H (X ))] P k(h (x )| D )、Pを置き換えることができますと PのK(H | D )との合計外に移動 Σは、xは∉ Dをそれが実際の分布であるので、時間にわたって H所与 Dのための K個の確率的学習アルゴリズム番目?
よろしくお願いします!