不可知論的PACサンプリングの下限


10

古典的なPACの学習では、例が whpの誤差範囲を達成するために必要であることはよく知られています。ここで、は概念クラスのVC次元です。Ω(d/ε)εd

不可知論者の場合、例が必要であることはわかっていますか?Ω(d/ε2)


3
下限がどのように見えるかはわかりませんが、Hoefdingの境界がタイトである場合は存在するはずです(私はそうだと思います)。この限界は、1 fnについて、エラーの確率がpの場合、最大でサンプルでpをエラー内に推定する必要がある+- whpなので、 2つのコンセプト、及びおよびVC-寸法は、その結果の例上分布を取る2. VC次元アルゴリズムのみ使用と思わ2であるので、これは可能である- (またはその逆)例は、改善されたHoefdingの境界を意味します。m=O(1/ϵ2)ϵf1f2p1=p2+ϵO(1/ϵ)
Aaron Roth

1
つまり、私はでタイトHoeffdingがバインドされていると思うのために。上記の推論は一般的に知られていると思います...p=1/2O(1/ϵ2)
レフ・レイジン

OK-MLコースの演習が終わったようです... :) AaronとLevのご協力ありがとうございます。
Aryeh

@アーロン、たぶんこれは答えだったはずです。
Suresh Venkat

回答:


6

私は今、AnthonyとBartlettによって実際に下限が設定されていることを認識しています(ここのプレゼンテーションを参照)。

2018年9月24日編集。この質問により、私はこれらの年のすべてを占有し続けました。最近では、I。Pinelisと私は、Annに表示れる不可知論的PACの下限で正確な最適定数を取得しましたStat


あなたの論文では、この作品を引用していません(jmlr.org/papers/volume17/15-389/15-389.pdf)。最適化されたサンプルの複雑さは、あなたの仕事に関係のない実現可能なケースでは上限ですか?これらの対応する最適なサンプル複雑度の上限は不可知論者のケースで既知ですか?
gradstudent

実現可能なケースはすべて関連しているとは思いません。実現可能なケースでは、ERMは最適なレートを保証しません-したがって、Hannekeやその他のすべてのハードワークはログファクターを削除するために費やす必要があり、適切な学習者が最適なレートを達成できるかどうかはまだ不明です。逆に、不可知論者の場合、ERMが最適なレートを達成することは長い間知られています。
Aryeh
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.