デジタルコンピューターは無限を理解できますか?
人間として、私たちは無限と考えることができます。原則として、十分なリソース(時間など)がある場合、無限に多くのもの(抽象的、数字のような、または実数を含む)をカウントできます。 たとえば、少なくとも、整数を考慮することができます。主に考えて、画面に表示される多くの数字を無限に「理解」できます。今日、私たちは少なくとも人間ができる人工知能を設計しようとしています。しかし、私は無限にこだわっています。私は、無限を理解するためにモデルを(深いかどうかにかかわらず)教える方法を見つけようとします。機能的アプローチで「理解」を定義します。たとえば、コンピューターが10個の異なる数字や物を区別できる場合、それは何らかの方法でこれらの異なるものを本当に理解することを意味します。 前に述べたように、人間は原則として無限の整数を数えることができるため、無限を理解しています。この観点から、モデルを作成したい場合、モデルは実際には抽象的な意味での関数であり、このモデルは無限に多くの数を区別する必要があります。コンピューターは、このような無限関数をモデル化する能力が限られたデジタルマシンであるため、無限に多くの整数を区別するモデルを作成するにはどうすればよいですか? たとえば、カード上の数字を認識するディープラーニングビジョンモデルを使用できます。このモデルでは、各整数を区別するために、各カードに番号を割り当てる必要があります。無限の数の整数が存在するため、モデルはデジタルコンピューターで人間のように各整数に異なる数をどのように割り当てることができますか?無限のものを区別できない場合、無限をどのように理解しますか? 実数を考慮すると、問題はさらに難しくなります。 私が欠けている点は何ですか?このテーマに焦点を当てたリソースはありますか?