デイゴの答えの線に沿って続けるために、学習理論からの標準的なサンプルの複雑さの限界は、「ほぼ正しい」プログラムを見つけることに満足しているなら、あなたは全く多くの点を試す必要がないことを示します。長さdのプログラムがしかないように、プログラムをバイナリでエンコードしているとしましょう。また、入力例何らかの分布があると仮定します。おそらくあなたの目標は、あなたがほぼ正しいと確信しているプログラムを見つけることです(「Valients Correct」、つまりValiants PAC学習モデルのように)。つまり、と一緒に少数のサンプルを取り込み、少なくとも確率でアルゴリズムを実行する必要があります。 D X 〜D F (X )(1 - δ )P F (1 - ε )D2dDx∼Df(x)(1−δ)から引き出された入力の少なくとも分数でと一致するプログラムを出力します。 Pf(1−ϵ)D
単純に例描画し、すべての例でと一致する長さプログラムを出力します。(が最大でコルモゴロフ複雑度を持っていると仮定するため、1つは存在することが保証されます)...X 〜D P ≤ D F F Dmx∼DP≤dffd
例の分以上でと一致しない特定のプログラム、選択した例と一致する確率はどのですか?最大でです。この確率を最大でて、すべてのプログラムに結合境界を取り、少なくとも確率で、「悪い」プログラムが一貫していないと言いたい私たちの描かれた例で。解決すると、
例だけ十分であることがわかり
。(すなわち、コルモゴロフ複雑度において線形的にのみ多くのF ε M (1 - ε )M δ / 2 D 2 D 1 - δ M ≥ 1Pfϵm(1−ϵ)mδ/2d2d1−δ
m≥1ϵ(d+log1/δ)
f...)
ところで、このような議論は「Occam's Razor」を正当化するために使用することができます:それらを説明するすべての理論の中で、固定数の観測が与えられると、最小の過剰適合の可能性があるので、最も低いコルモゴロフの複雑さを持つものを選択する必要があります
もちろん、この方法で1つの固定プログラムのみをチェックする場合は、例のみが必要です...O(log(1/δ)/ϵ)