([1]の定理1および3を参照)大まかに言えば、適切な条件下では、多項式時間でチューリングマシンによって効率的に計算できる関数( "効率的に計算可能")は多項式ニューラルネットワークで表現できる合理的なサイズで、したがって、任意の入力分布の下で多項式サンプルの複雑さ(「学習可能」)で学習できます。
ここで、「学習可能」とは、計算の複雑さに関係なく、サンプルの複雑さにのみ関係します。
非常に密接に関連する問題について疑問に思っています:多項式時間でチューリングマシンによって効率的に計算できない関数(「非効率的に計算できない」)が存在する一方で、多項式サンプルの複雑さ(「学習可能」)で学習できる関数があります入力分布の下で?
- [1] Roi Livni、Shai Shalev-Shwartz、Ohad Shamir、「ニューラルネットワークのトレーニングの計算効率について」、2014