大きさn、V_nの任意の整数のベクトル表現があるとします
このベクトルは、機械学習アルゴリズムへの入力です。
最初の質問:どのタイプの表現に対して、ニューラルネットワークまたは他のベクトルからビットへのMLマッピングを使用して、nの素数性/複合性を学習することができます。これは純粋に理論的なものです-ニューラルネットワークのサイズには制限がない可能性があります。
次のような素数性テストにすでに関連している表現を無視しましょう。nの因子のヌル区切りリスト、またはMiller Rabinなどの複合性証人の存在。代わりに、異なる基数の表現、または(多変量)多項式の係数ベクトルとしての表現に注目しましょう。または他のエキゾチックなものが想定されています。
2番目の質問:表現ベクトルの詳細に関係なく、MLアルゴリズムの種類があれば、これを学習することは不可能ですか?繰り返しますが、上記の例が示されている「自明では禁止されている」表現は省略しましょう。
機械学習アルゴリズムの出力は、1ビット、素数の場合は0、複合の場合は1です。
この質問のタイトルは、質問1のコンセンサスが「不明」であり、質問2のコンセンサスが「おそらくほとんどのMLアルゴリズム」であるという私の評価を反映しています。これ以上のことは分からないので、私はこれを求めています。
この質問の主な動機は、ある場合、特定のサイズのニューラルネットワークでキャプチャできる素数のセットの構造に「情報理論」の制限があるかどうかです。私はこの種の用語の専門家ではないので、この考えを何度か言い直し、概念のモンテカルロ近似を得るかどうかを確認します。素数の集合のアルゴリズムの複雑さは何ですか?素数がディオファントイン再帰的に列挙可能であるという事実(および特定の大きなディオファントス方程式を満たすことができる)を使用して、上記の入力と出力を使用してニューラルネットワークの同じ構造をキャプチャできます。