メンバーシップクエリおよび反例モデルで学習するための下限


11

Dana Angluin(1987 ; pdf)は、メンバーシップクエリと理論クエリ(提案された関数の反例)を含む学習モデルを定義しています。彼女は、状態の最小DFAで表される通常の言語が、O m n 2メンバーシップクエリおよび最大n 1の理論クエリ(mは、チューターが提供する最大の反例のサイズです)。残念ながら、彼女は下限については話しません。nO(mn2)n1m

任意の関数間の同等性をチェックし、異なる場合は反例を提供できる魔法の家庭教師を想定することで、モデルをわずかに一般化できます。その後、通常の言語よりも大きなクラスを学ぶのがどれほど難しいかを尋ねることができます。この一般化と通常の言語に対する元々の制限に興味があります。

メンバーシップおよび反例モデルのクエリ数に既知の下限はありますか?

メンバーシップクエリ、理論クエリ、または2つの間のトレードオフの数の下限に興味があります。通常の言語よりも複雑なクラスであっても、あらゆるクラスの関数の下限に興味があります。

下限がない場合:このモデルでクエリの下限を証明するための障壁はありますか?


関連する質問

正規集合を学習するためのDana Angluinのアルゴリズムに改善はありますか

回答:


11

NPcoNP

O(n)O(n2+nlogm)

下限を取得する簡単な方法の1つは、情報理論です。個別のターゲットがいくつあるのか、クエリで何ビットが得られるのかなどを把握できます。これらの上限は近くなりますが、ありません。また、「反例」が学習者にどのように届くかについて考える必要がある問題もあります。適切に選択された反例は、非常に多くの情報を提供できます。

上記の議論へのアップデート:AngluinとDohrnは最近の論文でランダムな反例で質問学習に対処します。


答えてくれてありがとう!リンクされた質問にリンクされた質問に対する回答を提供しても構いませんか?または、CS.SEアカウントを作成する予定ですか?パラグラフ3に完全に同意します。私は、家庭教師が最小限の反例を与えることを要求することにだまされており、学習がはるかに容易になるようです。
アルテムKaznatcheev

問題ない!リンクされたCS.SEの質問に投稿してください。
レフReyzin

シャピエールの論文の関連部分(セクション5.4.5)を読み、改善点要約しました。週の後半に引用する下限の論文を詳しく見ていきます:D。
アルテムKaznatcheev

涼しい。CS.SEアカウントを持っている場合は、それを支持します:)
レフレイジン
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.