この問題を指摘してくれたAryehに感謝します。
他は述べたように、(1)に対する答えがはい、とに経験的リスク最小化の簡単な方法達成するサンプルの複雑さ( Vapnik and Chervonenkis、1974; Blumer、Ehrenfeucht、Haussler、and Warmuth、1989を参照)。CO((d/ε)log(1/ε))
(2)に関しては、実際にスペースが存在することが知られています。このスペース
では、適切な学習アルゴリズムではよりも優れたサンプル複雑度は達成されません。したがって、適切な学習では、最適なサンプルの複雑さを実現できません。私の知る限り、この事実は実際に公開されたことはありませんが、ダニエリとシャレフシュワルツ(COLT 2014)の関連する議論に基づいています(元々、マルチクラス学習における別の関連した質問のために公式化されました)。C Ω ((D / ε )ログ(1 / ε ))O (D / ε )Ω((d/ε)log(1/ε))O(d/ε)
考慮する単純なケース、及び空間置くなどを、およびであるシングルトン:つまり、各分類子は、 1つの点をとして、その他の点をとして分類し。下限については、ターゲット関数をランダムシングルトン、ここで、およびは周辺分布です。均一ですd=1X{1,2,...,1/ε}Cfz(x):=I[x=z],z∈XCX10fx∗x∗∼Uniform(X)PXX∖{x∗}1 Z 1つのCの ZのXを ∖ { X * } 1 / 2 F Z、Z ≠ X * 1 / 2 Ω ((1 / ε )ログ(1 / ε ))X ∖ { X * } Ω ((1 / ε )log (1 / ε ))。今、学習者は、任意の例では、ラベル見たことがないが、それはポイントを選択する必要がありに推測ラベル付けされた(重要なのは、 ``すべてゼロ「」機能がされていないで、任意の適切な学習者はそうしなければならないいくつかの推測)、そしてすべての点がは、可能性が少なくともあります(つまり、に事後確率)は少なくとも)。クーポンコレクターの主張は、1z1CzX∖{x∗}1/2fzz≠x∗1/2Ω((1/ε)log(1/ε))サンプルを使用して、すべてのポイントを確認します。したがって、これはすべての適切な学習者の下限を証明し。X∖{x∗}Ω((1/ε)log(1/ε))
一般的な場合、を、を分類として使用正確にのサイズのセットに対して、ターゲット関数をからランダムに選択し、ターゲット関数が分類する点のみでを一様として再び取得し(したがって、学習者はこれを見ることはありません)というラベルの付いたポイント)。次に、クーポンコレクター引数の一般化は、少なくともを表示するためにサンプルが必要であることを意味します d>1X{1,2,...,d/(4ε)}CIAA⊂XdCP01Ω((d/ε)log(1/ε))|X|−2dからの個別の点、およびこの多くの個別の点を見ずに、適切な学習者は、選択された仮説で間違った点の推測のよりも大きくなる可能性が少なくとも。エラー率がより大きいことを意味します。したがって、この場合、サンプルの複雑度がより小さい適切な学習者は存在しません。つまり、適切な学習者が最適なサンプルの複雑度達成することはありません。。X1/3d/4AdhAεΩ((d/ε)log(1/ε))O(d/ε)
結果は、構築されたスペースに固有のものであることに注意してください。適切な学習者が最適なサンプルの複雑さを達成できるスペースが存在し、実際に完全な式(Hanneke、2016a)から。一般的なERM学習者のいくつかの上限と下限は(Hanneke、2016b)で開発され、空間のプロパティの観点から定量化され、特定の適切な学習者が時々最適を達成できるいくつかのより特殊なケースについても議論されていますサンプルの複雑さ。CCO(d/ε)O((d/ε)+(1/ε)log(1/δ))C
参照:
Vapnik and Chervonenkis(1974)。パターン認識の理論。ナウカ、モスクワ、1974。
Blumer、Ehrenfeucht、Haussler、およびWarmuth(1989)。学習可能性とVapnik-Chervonenkisディメンション。Journal of the Association for Computing Machinery、36(4):929–965。
Daniely and Shalev-Shwartz(2014)。マルチクラス問題の最適学習者。第27回学習理論会議の議事録。
ハネケ(2016a)。PAC学習の最適なサンプルの複雑さ。Journal of Machine Learning Research、Vol。17(38)、1〜15ページ。
ハネケ(2016b)。いくつかの学習アルゴリズムの洗練された誤差範囲。Journal of Machine Learning Research、Vol。17(135)、1〜55ページ。