Angluin and Laird('88)は、モデル「ランダム分類ノイズを伴うPAC」(またはノイズの多いPAC)のランダムに破損したデータを使用して学習を形式化しました。このモデルは同様であるPAC学習確率で、独立してランダムに、学習者に与えられた例のラベルを除いて、(反転)が破損している。
ノイズの多いPACモデルで学習可能なものを特徴付けるために、Kearns('93 )は学習のために統計クエリモデル(SQ)を導入しました。このモデルでは、学習者はターゲット分布のプロパティについて統計的オラクルを照会でき、SQ学習可能なクラスはノイズの多いPACで学習可能であることを示しました。カーンズはまた、いくつかの定数cに対して2 n / cよりも速くn変数のパリティを学習できないことを証明しました。
その後、Blumら。('00)最初の(log (n )log log (n ))のパリティが、ノイズの多いPACモデルでは多項式時間学習可能であるが、SQモデルでは学習できないことを示すことにより、ノイズの多いPACをSQから分離しました。
私の質問はこれです:
パリティ(最初の変数)は、ノイズの多いPACモデルでは学習可能ですが、SQモデルでは学習できません。パリティとは十分に異なる、ノイズの多いPACで学習可能であるがSQでは学習できないことがわかっている他の特定のクラスはありますか?