ノイズのあるPACのパリティ以外の仮説クラスはありますが、SQにはありませんか?


11

Angluin and Laird('88)は、モデル「ランダム分類ノイズを伴うPAC」(またはノイズの多いPAC)のランダムに破損したデータを使用して学習を形式化しました。このモデルは同様であるPAC学習確率で、独立してランダムに、学習者に与えられた例のラベルを除いて、(反転)が破損しているη<1/2

ノイズの多いPACモデルで学習可能なものを特徴付けるために、Kearns('93 )は学習のために統計クエリモデル(SQ)を導入しました。このモデルでは、学習者はターゲット分布のプロパティについて統計的オラクルを照会でき、SQ学習可能なクラスはノイズの多いPACで学習可能であることを示しました。カーンズはまた、いくつかの定数cに対して2 n / cよりも速くn変数のパリティを学習できないことを証明しました。n2n/cc

その後、Blumら。('00)最初のlog n log log n )のパリティが、ノイズの多いPACモデルでは多項式時間学習可能であるが、SQモデルでは学習できないことを示すことにより、ノイズの多いPACをSQから分離しました。(log(n)loglog(n))

私の質問はこれです:

パリティ(最初の変数)は、ノイズの多いPACモデルでは学習可能ですが、SQモデルでは学習できません。パリティとは十分に異なる、ノイズの多いPACで学習可能であるがSQでは学習できないことがわかっている他の特定のクラスはありますか?(log(n)loglog(n))

回答:


6

d/ϵ21/ϵ


おかげで、アーロン-それは私も物事の状態の理解だったが、私は確信していなかった。誰もすぐに例を挙げてくれない場合は、あなたの回答を承認済みとしてマークします。
レフReyzin

6

1/2nϵ


はい、そうです、BKWに依存するものではなく、別の分離手法が必要です。純粋な分離についての追加の質問も興味深いものです。
レフReyzin
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.