タグ付けされた質問 「math」

5
数式を解くためにニューラルネットワークをトレーニングすることは可能ですか?
ニューラルネットワークはおそらくそれを行うように設計されていないことを知っていますが、仮説的に尋ねると、数式を解くためにディープニューラルネットワーク(または同様のもの)を訓練することは可能ですか? したがって、3つの入力が与えられると、最初の番号、番号(1- +、2- -、3- /、4- *など)で表される演算子記号、および2番目の番号が与えられ、ネットワークをトレーニングした後、有効な結果が得られます。 例1(2+2): 入力1 2:; 入力2: 1(+); 入力3 2:; 期待される出力:4 入力1 10:; 入力2: 2(-); 入力3 10:; 期待される出力:0 入力1 5:; 入力2: 4(*); 入力3 5:; 期待される出力:25 など 上記は、より洗練された例に拡張できます。 それは可能ですか?その場合、どのようなネットワークがそれを学習/達成できますか?

4
定理を証明するために、深いネットワークを訓練できますか?
一次述語計算に多数の証明があると仮定します。また、その形式の数学の領域にも公理、帰納法、定理があると仮定します。 証明された各命題と、その特定の命題を取り巻く既存の理論の本体を、トレーニングセットの例として、また関連するラベルとしての命題の既知の良い証明と考えてください。ここで、このサンプルセットでトレーニングするために特別に設計されたディープな人工ネットワークと、そうするためにハイパーパラメーターが正しく設定されていることを考えます。 新しい命題の提示と、それを取り巻く既存の理論が入力で一次述語計算で提示することで、出力で証明を生成するような方法で、深い人工ネットワークを訓練することは可能ですか? (もちろん、そのような証明は手動でチェックする必要があります。) 結果の良い証明の割合が十分に高い場合、訓練された深層ネットワークに命題を提案する遺伝的アルゴリズムを作成し、それによって証明を作成することは可能でしょうか? それは可能ですか? この種の深いネットワーク設計を使用して、Collat​​z予想またはRiemann予想を解決したり、数学者が正当な証明に到達できるように少なくともパターンを再配置することは可能でしょうか?

6
人工知能の学習をどのように開始しますか?
私はソフトウェア工学の学生であり、AIの完全な初心者です。AIの学習を開始する方法に関する多くの記事を読みましたが、各記事は異なる方法を提案しています。あなたの専門家の何人かが私が正しい方法で始めるのを助けることができるかどうか疑問に思っていました。 さらに具体的な質問 どの言語に焦点を当てるべきですか?多くの記事は、Python、C ++、またはLisp for AIを提案しています。上記の他の言語の代わりにJavaを使用できますか? どんな数学的な背景が必要ですか?最初の1年間、私は次のトピックを含む離散数学を行いました:集合、行列、ベクトル、関数、論理、グラフ理論(彼らはこれらのトピックを簡潔に教えました)。今すぐ学ぶべきトピックはありますか?たとえば、計算? 可能であれば、始めるために使用できるリソースや書籍をいただければ幸いです。または、皆さんがレベルに追いつくために従うことができる詳細な手順を教えてくれるかもしれません。 注:今のところ、ニューラルネットワークと機械学習に焦点を当てたいと思います。その後、ロボット工学と自然言語処理を探求したいと思います。


2
アクティベーション機能の選び方は?
必要な出力と知っているアクティベーション関数のプロパティに応じて、出力レイヤーのアクティベーション関数を選択します。たとえば、確率を処理する場合はシグモイド関数を選択し、正の値を処理する場合はReLUを選択し、一般的な値を処理する場合は線形関数を選択します。 非表示のレイヤーでは、ReLUではなくリークしたReLUを使用し、シグモイドではなくtanhを回避します。もちろん、私は隠れた単位で線形関数を使用しません。 ただし、非表示層でのそれらの選択は、主に試行錯誤によるものです。 状況によっては、どのアクティベーション機能が適切に機能するかについての経験則はありますか?可能な限り一般的な状況を考えてみましょう。これは、レイヤーの深さ、NNの深さ、そのレイヤーのニューロンの数、選択したオプティマイザー、入力フィーチャの数を指す場合があります。そのレイヤー、このNNのアプリケーションなど で、彼/彼女の答えは、cantordustはELUとSELUのように、私は言及しなかったことを、他の活性化関数を指します。この情報は大歓迎です。ただし、アクティブ化関数が多いほど、非表示のレイヤーで使用する関数の選択に混乱が生じます。そして、コインを投げることがアクティベーション機能を選ぶ良い方法だとは思いません。

2
ディープラーニングで強力なAIが生成されないようにする科学的/数学的な議論はありますか?
私はJudea PearlのThe Book of Whyを読みました。そこで彼は、ディープラーニングは美化されたカーブフィッティング技術であり、人間のような知性を生み出すことはできないと述べています。 彼の本から、認知能力の3つのレベルを説明するこの図があります: 現在のディープラーニングテクノロジーが生み出す「知性」は、関連性のレベルにしかないと考えています。したがって、AIは「Yをどのようにして実現できるか」(介入)や「私が別の行動をとったとしても、Xは引き続き発生するでしょうか?」(反事実)、そしてカーブフィッティング技術が私たちをより高いレベルの認知能力に近づけることができる可能性はほとんどありません。 私は彼の議論が直感的なレベルで説得力があると思いましたが、私はこの議論を強化するか、疑いを投げかけることができる物理的または数学的な法則を見つけることができません。 それでは、ディープラーニングが強力なAI(人間のような知性)を生成することを妨げる科学的/物理的/化学的/生物学的/数学的な議論はありますか?


3
人々が取り組んでいるAIには、どのような数学的な問題がありますか?
私は最近、数学部門で18か月のポスドク職を得ました。それは、私がやりたい研究の種類について、比較的軽い教育義務と多くの自由を持つ立場です。 以前は、確率と組み合わせ論の研究を主に行っていました。しかし、AIなど、アプリケーション指向の作業をもう少し行うことを考えています。(現在のポジションの最後にテニュアトラックポジションを取得できない可能性が十分にあることも考慮されています。他のキャリアの可能性のために少しAIが役立つかもしれません。) 人々が取り組んでいるAIには、どのような数学的な問題がありますか?聞いたところによると、 確定的有限オートマトン 多腕バンディットの問題 モンテカルロツリー検索 コミュニティの検出 他の例はありますか?
11 research  math 

1
強化学習におけるベルマン演算子は何ですか?
数学では、演算子という単語は、いくつかの異なるが関連する概念を参照できます。演算子は、2つのベクトル空間の間の関数として定義でき、ドメインとコドメインが同じである関数として定義できます。または、関数(ベクトル)から他の関数​​(の場合)への関数として定義できます。たとえば、微分演算子)、つまり高次関数(関数プログラミングに精通している場合)。 強化学習(RL)におけるベルマン演算子とは何ですか?なぜそれが必要なのですか?ベルマン演算子は、RLのベルマン方程式とどのように関連していますか?

2
ニューラルネットワークのコンテキストでは、平均二乗誤差は常に凸形ですか?
私が言及した複数のリソースは、MSEは凸型であるため優れていると述べました。しかし、特にニューラルネットワークのコンテキストでは、その方法がわかりません。 次のものがあるとします。 バツXX:トレーニングデータセット YYY:ターゲット ΘΘ\Theta:モデルfΘfΘf_\Thetaパラメータのセット Θ(非線形性を持つニューラルネットワークモデル) 次に: MSE(Θ )= (fΘ(X)− Y)2MSE⁡(Θ)=(fΘ(X)−Y)2\operatorname{MSE}(\Theta) = (f_\Theta(X) - Y)^2 なぜこの損失関数は常に凸型になるのでしょうか?これはに依存しないfΘ(X)fΘ(X)f_\Theta(X)?
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.