効率的に計算できないが学習可能な関数


28

([1]の定理1および3を参照)大まかに言えば、適切な条件下では、多項式時間でチューリングマシンによって効率的に計算できる関数( "効率的に計算可能")は多項式ニューラルネットワークで表現できる合理的なサイズで、したがって、任意の入力分布の下で多項式サンプルの複雑さ(「学習可能」)で学習できます。

ここで、「学習可能」とは、計算の複雑さに関係なく、サンプルの複雑さにのみ関係します。

非常に密接に関連する問題について疑問に思っています:多項式時間でチューリングマシンによって効率的に計算できない関数(「非効率的に計算できない」)が存在する一方で、多項式サンプルの複雑さ(「学習可能」)で学習できる関数があります入力分布の下で?


4
私は「そしてそれによって学ぶことができる」という問題を取り上げます。非常に効率的に計算可能な関数(たとえば、DFA)がありますが、それはおおよそであっても学習するのが非常に困難です。
アリーエ

3
これはおそらく、(例えば)のクラスについて何をポイントに欠けているが、バイアスされたブール関数?(すなわち、多かれ少なかれ、確率2-で各値が独立して1であるランダム関数2n1)。以下のための任意のε>2-2n、均一分布でのPAC学習は簡単です(0サンプルが必要、定数関数0は良い仮説です)が、どの評価アルゴリズムも超多項式時間を費やす必要があるようです(関数には構造がないため)。しかし、私は質問を誤解している可能性が高いです。ε>2n0
クレメント

3
あなたの用語は少しわかりにくいです。「効率的に学習可能」と言うとき、通常は計算効率を指します。「学習可能」と言うだけで、サンプルの効率を暗示します。
レフReyzin

1
@Minkov PACの学習には、あらゆる分布に関して学習する必要があります。そうでなければ、質問は興味深いものではありません(クレメントが指摘するように)。
レフReyzin

2
なぜ人々は閉会を表明するのですか?これは深く微妙な質問だと思います!
アリーエ

回答:


11

「効率」が「計算可能性」に置き換えられるこの質問の変形を形式化します。

レッツCn、すべての言語の概念クラスもLΣ 上のチューリングマシンによって認識nの状態または少ないです。一般的に、のためxΣfCn、評価の問題 f(x)決定不能です。

ただし、C nの(適切で実現可能な)PAC学習オラクルA にアクセスできるとします。つまり、ϵ δ > 0の場合、オラクルはサイズm 0n ϵ δ )のラベル付きサンプルを要求し、 そのようなサンプルが未知の分布Dからiidで描画されたと仮定すると、オラクルAは仮説を出力しますFC N の確率で、少なくとも1 - δを有し、DをCnϵ,δ>0m0(n,ϵ,δ)DAf^Cn1δD-一般化エラーϵ。この神託はチューリング計算可能ではないことを示します。

標識されたサンプルが与えられると、決定の一つ:実際に、我々は簡単な問題は決定不能であることを示すであろうSが存在するか否か、fCnと一致S。(矛盾を得るために)Kが一貫性の問題を決定するチューリングマシンであるとします。

ΣN={0,1,2,}x{0,1}MxΣixi=1xi=0KK~:xkkCkxg:kxkNx{0,1}K~(x)>k

MMg(|M|)MM|x|MM=|M|xM{0,1}K~(xM)>xM


2
課題:計算可能性を介して「無限」引数を効率を介して最終引数に変換します。@minkovの質問に対する答えは否定的だと思います。効率的に評価できない関数クラスを効率的に学習することはできません。適切なPACまたは実現可能なPACを超えて移動する場合、これは引き続き当てはまると思います。
アリーエ
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.