O P T (C 、D )= 分F ∈ C E R R (F 、D )
言うアルゴリズム agnostically学習する上の任意の分布、いずれかの場合にが確率ででき関数見つけるよう、所定の時間およびおよび多項式で区切られたからのサンプルの数。C D 2 / 3 F のE RをR (F 、D )≤ O P T (C 、D )+ ε D 、D 1 / ε
質問:関数のどのクラスが、任意の分布で認知的に学習可能であることが知られていますか?
単純すぎるクラスはありません!単調な接続詞でさえ、任意の分布で不可知論的に学習できることは知られていないので、関数の自明でないクラスを探しています。
価値OPT(C、D)> 0が(間違った仮説のクラスを持っている、つまり際にとらわれない学習がケースに焦点を当てていることを、初心者のための指摘
—
スレシュヴェンカト
いい視点ね。OPT(C、D)= 0の特別な場合、これはPAC学習であり、はるかに簡単です。不可知論的学習では、OPT(C、D)が何であっても保証は保持されなければなりません。
—
アーロンロス
また、OPT(C、D)> 0の「PAC w / Classification Noise」の場合もあります。正しい仮説クラス(実現可能な設定)がありますが、ノイズのためにラベルがランダムに反転されるため、エラーが発生します。さまざまな設定の名前の混乱が少ないことを願っています。
—
レフReyzin
その上部OPTに結合した(C、D)ととらわれない学習のような音
—
スレシュヴェンカト
分類ノイズモデルではノイズがarbitrary意的であることが許可されていないため、完全ではありません。そのため、不可知論的モデルで学習(または経験的リスクミニマイザーの発見)を困難にする敵対的なノイズパターンがある場合、分類ノイズモデルでは頻繁に発生しない可能性があります(つまり、PACデルタパラメーターに分類されます)。
—
レフReyzin