以下では、無限テープチューリングマシンで作業していると仮定します。
時間の複雑さの概念を誰かに説明し、なぜそれがインスタンスの入力サイズに対して測定されるのかを説明するとき、私は次の主張に出くわしました。
[..]たとえば、2つの整数に3ビットを掛けるよりも、2つの整数に100000ビットを掛けるのに多くのステップが必要になるのは自然です。
主張は説得力がありますが、どういうわけか手を振っています。私が出会ったすべてのアルゴリズムで、入力サイズが大きいほど、必要なステップが多くなります。より正確に言えば、時間の複雑さは入力サイズの単調増加関数です。
時間の複雑さが常に入力サイズの増加関数であるということですか?もしそうなら、なぜそうなのですか?手を振る以上の証拠はありますか?