タグ付けされた質問 「ne.neural-evol」

10
遺伝的アルゴリズムに関する証明可能な声明
遺伝的アルゴリズムは、理論の世界ではあまり注目されていませんが、かなりよく使用されているメタヒューリスティック手法です(メタヒューリスティックとは、アニーリング、勾配降下など、多くの問題に一般的に適用される手法を意味します)。実際、GAのような手法は、実際のユークリッドTSPに非常に効果的です。 一部のメタヒューリスティックは、理論的にはかなりよく研究されています。ローカル検索とアニーリングに関する研究があります。交互最適化(k-meansなど)がどのように機能するかについては、かなり良い感覚があります。しかし、私が知る限り、遺伝的アルゴリズムについて知っている有用なものは何もありません。 遺伝的アルゴリズムの振る舞いについて、形や形を問わず、強固なアルゴリズム/複雑性理論はありますか?スキーマ理論のようなことを聞​​いたことがありますが、特にアルゴリズム的ではないという領域の現在の理解に基づいて、議論からそれを除外します(しかし、ここで間違えられるかもしれません)。

2
普遍近似定理—ニューラルネットワーク
これは以前にMSE に投稿しましたが、ここで質問する方が良いかもしれません。 普遍近似定理は、「限られた数の隠れニューロンを含む単一の隠れ層を備えた標準的な多層フィードフォワードネットワークは、活性化関数に関する穏やかな仮定の下で、Rnのコンパクトなサブセットの連続関数間の普遍的な近似器である」と述べています。 私はこれが何を意味するのか理解していますが、関連する論文は数学の理解レベルをはるかに超えており、なぜそれが真実であるか、隠れ層が非線形関数をどのように近似するかを把握することはできません。 それでは、基本的な計算や線形代数よりも少し高度な用語で、1つの隠れ層を持つフィードフォワードネットワークはどのように非線形関数を近似しますか?答えは必ずしも完全に具体的である必要はありません。

1
どのくらいの計算能力が立方センチメートルに収まりますか?
この質問は、Aadita Mehraが尋ねたDNAアルゴリズムに関する質問のフォローアップです。 そこのコメントで、ジョー・フィッツシモンズは次のように言った。 これを避けるために、システムの半径は質量に比例して拡大縮小する必要があります。計算能力は、質量内で最大で線形にスケーリングします。したがって、機械の指数関数的な量には指数関数的な半径があります。光よりも速く信号を送ることはできないため、一方から他方への信号は反対側に到達するのに指数関数的に長い時間がかかります。時間。 私の質問には2つの部分があります。 (1)「計算能力は最大で線形に比例して拡大する」などのステートメントを形式化するための最良の方法/方法は何ですか?この声明は本当に議論の余地がないのでしょうか? (2)ステートメントが真であると仮定します。そうであっても、自然がすでに指数関数的な量の前処理を行っていれば、それを利用できるかもしれません。たとえば、「ブルートフォースランダム化」による進化の視覚システムの作成などです。 私はこの種の質問に対するかなりの数のソフト(擬似科学的)回答を聞いて読んでおり、ここでの回答に感謝しますが、私は(1)と(2)がどのように作り直されることができるかに最も興味がありますTCSの厳格さ。

2
量子PAC学習
バックグラウンド 関数は、深さd [1]の回路を学習するためにランダムに選択されたO (2 l o g (n )O (d ))クエリを必要とする古典的アルゴリズムで準多項式時間でPAC学習可能です。2 n o (1 )因数分解アルゴリズムがない場合、これは最適です[2]。もちろん、量子コンピューターでは因数分解する方法がわかっているので、この下限は役に立ちません。さらに、最適な古典的アルゴリズムは関数のフーリエスペクトルを使用するため、「量子化してください!」と叫びます。A C0AC0AC^0O (2L O G(n )O (d))O(2log(n)O(d))O(2^{log(n)^{O(d)}})2no (1 )2no(1)2^{n^{o(1)}} [1] N.リニアル、Y。マンスール、N。ニサン。[1993]「定深度回路、フーリエ変換、学習可能性」、Journal of the ACM 40(3):607-620。 [2] M.ハリトノフ。[1993]「分布固有の学習の暗号の難しさ」、Proceedings of ACM STOC'93、pp。372-381。 実際、6年前、Scott Aaronsonは学習可能性を量子コンピューティング理論の10のセミグランドチャレンジの 1つとしています。A C0AC0AC^0 質問 私の質問は3つあります。 1)量子コンピューターが暗号化の仮定を与えられた古典的なコンピューターよりも速く学習できる自然な関数族の例はありますか? 2)学習可能性に特に進展はありましたか?(または少し野心的なT C 0)A C0AC0AC^0TC0TC0TC^0 3)学習可能性に関して、アーロンソンは次のようにコメントしている。誰かがニューラルネットとT C 0回路の重み更新がどのように関連するかについてのリファレンスを提供できますか?(しきい値ゲートがシグモイドニューロンのように見えるという事実は別として)TC0TC0TC^0TC0TC0TC^0(この質問はすでに質問され、回答されています)

1
ニューラルネットワークの計算能力?
k個の入力と1つの出力を持つ単一層のフィードフォワードニューラルネットワークがあるとします。それは関数から算出 、それはこのように少なくとも同じ計算能力を有していることを確認するために、かなり簡単ですA C 0。楽しみのために、単層ニューラルネットワークで計算可能な関数セットを「N e u r a l」と呼びます。{ 0 、1 }n→ { 0 、1 }{0、1}n→{0、1}\lbrace 0,1\rbrace ^{n}\rightarrow\lbrace 0,1\rbrace A C0AC0AC^0NE Uはrは、LをNeあなたはralNeural ただし、単独よりも計算能力が高い可能性があるようです。A C0AC0AC^0 そう...される、またはされ、Nは、E uはrは、L = A C 0?また、この種の複雑性クラスは以前に研究されましたか?A C0⊆ NE Uはrは、LをAC0⊆NeあなたはralAC^0 \subseteq NeuralNe u r a l = A C0Neあなたはral=AC0Neural = AC^0


5
ニューラルネットワークを使用してアルゴリズムを考案できますか?
ボードゲームでニューラルネットワークがどんどん成功した後、私たちが設定する次の目標は、Starcraftで人間を倒すことよりも役立つものになり得ると感じています。より正確には、私はかどうか疑問に思いました ニューラルネットワークをトレーニングして、古典的なアルゴリズムの問​​題を解決できますか? ここでは、たとえば、ネットワークが重み付きエッジと2つの頂点と指定された入力グラフを取得し、最短のパスをできるだけ早く見つけるように求めたことを意味します。次に、ニューラルネットワークがダイクストラまたは類似のものを使用するようにそれ自体を発見し、トレーニングすることになると思います。s t s tGGGssstttststst 一方では、ニューラルネットワークの計算能力がTC0TC0TC^0であることを知ってい。一方、これが私の質問に必ずしも関連しているのかどうかはわかりません。それでも、ほとんどの問題について、解決できるかどうかはわかりません。ニューラルネットワークがそれ自体をトレーニングできるかどうかを確認することは、高速なアルゴリズムがあるかどうかに関係なく、優れた指標になる可能性があります。たとえば、ニューラルネットワークがSATを高速に解決するように自分自身をトレーニングできない場合、(さらに)可能性が高くなり。ニューラルネットワークはグラフィソモルフィズムやFACTORIZATIONで何をするのだろう。TC0TC0TC^0NP⊄TC0NP⊄TC0NP\not\subset TC^0 もちろん、アルゴリズムの抽出はまったく別の問題です。専門家はそれを行う方法を知っていると思いますが、それを議論することはこの質問のトピックではありません。 2日後に追加:回答を確認した後、否定で回答する場合は、私が知りたいことを明記します。 チェスをプレイするのがダイクストラやグラフ同型写像よりも簡単なのはなぜですか?

2
目的と非表示レイヤーを使用するタイミングの決定
この質問のフォローアップ... 私は自分の研究でニューラルネットワークを使用および作成する方法を学習しようとしています。非表示のレイヤーはこれのいくらか必要な部分であることを理解していますが、私の参考文献が満足に説明していない2つの点に行き詰まっています。 非表示レイヤーの正確な目的は何ですか? 使用する隠しレイヤーの数をどのように決定しますか? 私が収集したものから、それは実際の機能を「モデル化」することですが、可能であれば、もう少し説明をお願いします。
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.