編集:私は一週間で応答/コメントを受け取っていないので、私は問題について何か聞いて満足していることを追加したいと思います。私はその地域で働いていないので、たとえそれが単純な観察であっても、私はそれを知らないかもしれません。「私はその地域で働いていますが、このような特徴は見ていません」というようなコメントさえあれば役立つでしょう!
バックグラウンド:
学習理論には、よく学習された学習モデルがいくつかあります(たとえば、PAC学習、オンライン学習、メンバーシップ/等価クエリを使用した正確な学習)。
たとえば、PAC学習では、概念クラスのサンプルの複雑さは、クラスのVCディメンションの観点からすてきな組み合わせ特性を備えています。したがって、一定の精度と信頼度でクラスを学習したい場合は、サンプルで行うことができます。ここで、dはVC次元です。(時間の複雑さではなく、サンプルの複雑さについて話していることに注意してください。)精度と信頼性に関して、より洗練された特性もあります。同様に、オンライン学習のミスバウンドモデルには、優れた組み合わせ特性があります。
質問:
メンバーシップクエリを使用した正確な学習のモデルで同様の結果が知られているかどうかを知りたい。モデルは次のように定義されます:入力f (x )を与えるブラックボックスにアクセスできます。fがいくつかのコンセプトクラスCに由来することはわかっています。できるだけ少ないクエリでfを決定します。
メンバーシップクエリを使用した正確な学習のモデルで概念を学習するために必要なクエリの数を特徴付ける概念クラス組み合わせパラメータはありますか?
私が知っていること:
私が見つけたそのような最高の特性評価は、本稿のServedioとGortlerによるもので、Bshouty、Cleve、Gavaldà、Kannan、Tamonに帰属するパラメーターを使用しています。彼らは、と呼ばれる、コンビナトリアルパラメータ定義、Cは、以下の性質を持つ概念クラスですが、。(このモデルでCを学習するために必要なクエリの最適数をQ Cとします。)
この特性評価はほぼ厳密です。ただし、上限と下限の間に2次ギャップが生じる可能性があります。たとえば場合は場合、下限はΩ (k )ですが、上限はO (k 2)です。(このギャップは達成可能だと思います。つまり、下限は両方ともΩ (k )ですが、上限はO (k 2)である概念クラスが存在します。)