タグ付けされた質問 「artificial-intelligence」

動的な環境で動作し、ユーザーの制御なしに何らかの目標に向かって意思決定を行うエージェントの設計とプロパティに関する質問。

3
一般的なパスファインディングアルゴリズムとヒューマンプロセスの比較
これは計算認知科学と境界を接するかもしれませんが、一般的なパスファインディングアルゴリズム(A *など)がたどるプロセスが、さまざまなパスファインディング状況で人間が使用するプロセス(同じ情報が与えられた場合)とどのように比較されるかについて知りたいです。これらのプロセスは似ていますか?

2
最小制約値とは何ですか?
制約充足問題では、ヒューリスティックを使用してbactrackingソルバーのパフォーマンスを改善できます。単純なバックトラッキングソルバーに一般的に与えられる3つのヒューリスティックは次のとおりです。 最小残り値(この変数にまだ有効な値の数) 度ヒューリスティック(この変数の影響を受ける他の変数の数) 最小制約値(他の変数に対して他のほとんどの値を残す値) 最初の2つはかなり明白で、実装は簡単です。最初に、ドメイン内に残っている値が最も少ない変数を選択します。タイがある場合は、他のほとんどの変数に影響を与える変数を選択します。このようにして、ソルバーの親ステップが不適切な割り当てを選択した場合、他の多くの要素に影響を与える最小の値が残っている変数を選択すると、より早く発見できるため、時間を節約できます。 これらはシンプルで明確に定義されており、実装も簡単です。 最小制約値は、どこを見ても明確に定義されていません。人工知能:現代のアプローチ(ラッセル&ノーヴィグ)は次のように述べています。 制約グラフ内の隣接する変数の選択が最も少ない値を優先します。 「最小制約値」を検索すると、この教科書に基づいた多くの大学のスライドショーが表示されただけで、アルゴリズムでこれを行う方法についての詳細はありませんでした。 このヒューリスティックの唯一の例は、値の1つの選択が隣接する変数のすべての選択を排除し、もう1つの値は排除しない場合です。この例の問題は、これが取るに​​足らないケースであり、潜在的な割り当てが問題の制約との整合性がチェックされるとすぐに排除されることです。したがって、私が見つけたすべての例で、最小の制約値のヒューリスティックは、冗長なチェックを追加することによる小さな悪影響を除いて、実際にはソルバーのパフォーマンスにまったくメリットがありませんでした。 私が考えることができる他の唯一のことは、各割り当ての隣接する変数の可能な割り当てをテストし、この変数の可能な割り当てごとに存在する隣接の可能な割り当ての数を数え、この変数の値を並べることですその値が選択された場合に使用可能なネイバー割り当ての数に基づく。ただし、これによりランダムな順序よりも改善されるかどうかはわかりません。これには、多数の変数の組み合わせのテストと、カウントの結果に基づく並べ替えの両方が必要になるためです。 誰でも最小制約値のより有用な説明を提供し、その最小制約値のバージョンが実際にどのように改善をもたらすかを説明できますか?

1
強化学習における割引率の意味
アタリのゲームに関するグーグルディープマインドの成果を読んだ後、qラーニングとqネットワークを理解しようとしていますが、少し混乱しています。割引率の概念に混乱が生じます。私が理解していることの簡単な要約。深い畳み込みニューラルネットワークは、アクションの最適な期待値の値を推定するために使用されます。ネットワークは損失関数 どこ E S " [ Y | S 、A ]であり、 E [ R + γ M A X A ' Q (S '、' ; θ - I)| s、a] ここで、Qは累積スコア値、rは選択したアクションのスコア値です。s、a、 sL私= Es 、a 、r[(Es』[ y| s、a]−Q(s、a; θ私))2]Li=Es,a,r[(Es′[y|s,a]−Q(s,a;θi))2] L_i=\mathbb{E}_{s,a,r}\left[(\mathbb{E}_{s'}\left[y|s,a\right]-Q(s,a;\theta_i))^2\right] Es』[ y| s、a]Es′[y|s,a]\mathbb{E}_{s'}\left[y|s,a\right]E [ r + γmは、Xがa』Q (s』、a』; θ−私)∣|s 、a ]E[r+γmaxa′Q(s′,a′;θi−)|s,a] \mathbb{E}\left[r+\gamma …


2
最適な近視迷路ソルバー
私はGoogle BlockyのMazeデモをいじり回していましたが、迷路を解決したい場合は左手を壁に向けるという古いルールを思い出しました。これは、単純な接続の迷路で機能し、有限変換器で実装できます。 私たちのロボットを、以下のアクションとオブザーバブルを備えたトランスデューサーで表現してみましょう: アクション:前進()、左折(←)、右折(→)↑↑\uparrow←←\leftarrow→→\rightarrow 観測可能:前方の壁()、前方の壁なし(⊤)⊥⊥\bot⊤⊤\top 次に、左側の迷路ソルバーを次のように構築できます(私の怠惰な描画を許してください)。 BBB AAA BBB BBB 私の2つの質問: 上に描かれたものよりも優れた有限オートマトンはありますか?確率的トランスデューサを許可するとどうなりますか? 必ずしも単純に接続されていない迷路を解くための有限オートマトンはありますか?

3
カーネル化トリック、ニューラルネットワーク用
ニューラルネットワークとSVMについて学習してきました。私が読んだチュートリアルでは、SVMにとってカーネル化がいかに重要であるかを強調しました。カーネル関数がない場合、SVMは単なる線形分類器です。カーネル化により、SVMは非線形機能を組み込むこともできるため、より強力な分類器になります。 カーネル化をニューラルネットワークに適用することもできるように思えますが、私が見たニューラルネットワークのチュートリアルではこれについて言及していません。人々は一般的にニューラルネットワークでカーネルトリックを使用しますか?それが大きな違いを生むかどうかを確かめるために誰かが実験していたに違いないと思います。カーネル化は、SVMと同じくらいニューラルネットワークに役立ちますか?なぜですか、なぜそうではありませんか? (カーネルトリックをニューラルネットワークに組み込むいくつかの方法を想像できます。1つの方法は、適切なカーネル関数を使用して、入力(RんRん\mathbb{R}^nのベクトル)をより高次元の入力であるベクトルに前処理することですin RメートルRメートル\mathbb{R}^{m} for M ≥ Nメートル≥んm\ge n。複数層のニューラルネットの場合、別の方法は、ニューラルネットワークの各レベルでカーネル関数を適用することです。

1
ニューラルネットワークの重みが乱数で初期化されるのはなぜですか?
ニューラルネットワークの初期の重みが乱数として初期化されるのはなぜですか?これは「対称性を壊す」ために行われ、これによりニューラルネットワークの学習が速くなることをどこかで読んだことがあります。対称性を壊すことで、学習がどのように速くなりますか? 重みを0に初期化した方がいいでしょうか?そうすれば、重みはそれらの値(正または負)をより速く見つけることができますか? 初期化時に重みが最適値に近いことを期待することとは別に、重みをランダム化する背後にある他の基本的な哲学はありますか?

2
これらのCS領域にとって興味深い数学は何ですか?
私のCSの学位については、「標準的な」数学的背景のほとんどを持っています。 微積分:微分、積分、複素数 代数:フィールドまでの概念のほとんど。 数論:XGCDおよび関連するもの、主に暗号化用。 線形代数:固有ベクトル/固有値まで 統計:確率、検定 論理:命題、述語、モーダル、ハイブリッド。 CS領域での私の主な関心は、セキュリティ、暗号化、人工知能です。これらの分野、特にAIは現時点では私の主な研究分野ではないため、これらの領域にとって興味深いと思われる数学的なトピックについて何か提案があるかどうか疑問に思いました。

1
人工ニューラルネットワークアルゴリズムをマップリデュース操作で表現できますか?
人工ニューラルネットワークアルゴリズムをマップリデュース操作で表現できますか?また、ANNに適用される並列化の方法と、クラウドコンピューティングへのそれらの適用にも、より一般的に興味があります。 1つのアプローチは、各ノードで完全なANNを実行し、グリッドを単一のエンティティのように扱うために結果を統合することを含むと思います(入力/出力と機械学習の特性に関して)。そのような統合戦略はどのように見えるか。

1
収束するのではなく分岐するニューラルネットワーク
2層のニューラルネットワーク(CUDAを使用)を実装しました。(レイヤーあたり2ニューロン)。私は、バックプロパゲーションを使用して2つの単純な2次多項式関数を学習させるようにしています。 しかし、収束するのではなく、それは発散します(出力は無限大になります) これが私が試したことの詳細です: 初期の重みを0に設定しましたが、発散していたため、初期の重みをランダム化しました(範囲:-0.5〜0.5) 学習率が高すぎるとニューラルネットワークが分岐する可能性があるため、学習率を0.000001に下げました。 追加しようとしている2つの関数は次のとおりです。3* i + 7 * j + 9およびj * j + i * i + 24(レイヤーiおよびjを入力として指定しています) 私は以前にそれを単一の層として実装しました、そしてそれは今それをしているよりも多項式関数をよりよく近似することができました このネットワークに勢いをつけることを考えていますが、それが学習に役立つかどうかはわかりません 線形(noのように)アクティベーション関数を使用しています 最初は振動がありますが、いずれかのウェイトが1を超えると出力が発散し始めます コードをチェックして再チェックしましたが、コードになんら問題はないようです。 だから私の質問です:ここで何が問題になっていますか? どんなポインタでも大歓迎です。

1
LSTMのトレーニングの直感的な説明(ゲート/ピープホールを忘れた場合)?
私はCSの学部生です(ただし、AIについてはよく知りませんが、AIについてのコースを受講していません。最近までNNについてはまったく何もしていませんでした)。AIで学校のプロジェクトをやろうとしているので、ニューラルネットワークで強化学習を使用した(文脈自由言語およびおそらく文脈依存言語のサブセットの)文法誘導。私は以前に成功したアプローチを最初に研究してそれらを微調整できるかどうかを確認し始めましたが、今私は長期短期記憶による教師あり学習を使用してアプローチを理解しようとしています。私は「忘れる学習:LSTMによる継続的予測」を読んでいます。。私ものぞき穴に関する論文を読んでいますが、それはさらに複雑に思われ、単純なことを最初に試みています。私は、メモリセルとネットワークトポロジがどのように機能するかを正しく理解していると思います。現時点では取得できないのは、トレーニングアルゴリズムです。だから私は尋ねるいくつかの質問があります: 異なる入力はどの程度正確に区別されますか?どうやらネットワークは各入力の後にリセットされず、異なる入力を区切る特別な記号はありません。ネットワークは、入力の終わりと次の始まりがどこであるかについての手掛かりなしに、文字列の連続ストリームを受信するだけですか? 入力と対応するターゲット出力の間のタイムラグはどれくらいですか?確かにある程度のタイムラグが必要であるため、ネットワークは、処理するのに十分な時間がない入力からターゲット出力を取得するようにトレーニングすることはできません。使用されたのがReberの文法ではなく、より多くの情報を格納および取得する必要がある可能性のあるより複雑なものである場合、情報にアクセスするために必要な時間は、入力によって異なり、おそらく予測できないものです。トレーニングを行うためのタイムラグを決定している間。 トレーニングアルゴリズムのより直感的な説明はありますか?すべての複雑な数式の背後で何が行われているのかを理解するのは難しいと思います。後で強化学習アルゴリズムに微調整する必要があるため、理解する必要があります。 また、このペーパーでは、ノイズの多いトレーニングデータについては何も触れられていません。ネットワークが非常にノイズの多いテストデータを処理できることを他の場所で読んだことがあります。LSTMが、トレーニングデータが不要な情報で破損/上書きされる可能性がある状況を処理できるかどうかを知っていますか?

1
Church-Turingの論文は人工知能にも適用されますか?
Church-Turingの論文では、停止問題を決定するアルゴリズムを設計することは不可能です。 この文脈でのアルゴリズムという言葉には人工知能が含まれているかどうか、つまり、チャーチチューリングの論文は人工知能にも当てはまりますか? この問題を決定するために将来インテリジェンスシステムを設計することは可能ですか、それともチャーチチューリングの論文では、AIが停止問題を決定することもできないでしょうか?

5
オントロジーの実際の用途は何ですか?
オントロジーに関する多くの論文や本を読んだことがあり、実際のプロジェクトでそれらがどのように使用されているかを理解しようとしていますか? たとえば、サッカープレーヤーロボットのオントロジーをどのように定義し、インテリジェントアーキテクチャにするためにコグニティブアーキテクチャで使用できますか? オントロジーは、その知識のドメイン内の用語間の関係(たとえば、ボールとフットの単語と物理的ルールの定義間の関係、およびフットとボールの動きとの関係など)または戦術、戦略、および戦術のさまざまな混合の関係ですか? 実際のプロジェクトでのオントロジーの使用法の明確な例、およびそれらを強化するためのACT-Rなどの認知アーキテクチャとの組み合わせの使用法はありますか認知アーキテクチャでは?

1
分類グラフに基づいてパーセプトロンの重みを計算する簡単な方法はありますか?
私はAI試験の勉強をしており、次の問題を解決するより良い方法を探しています。 グラフは、単位正方形内の分類問題を示しクラスAが(点線上の点を含まない)図中の灰色の領域によって示され、そしてクラスBは、そうでなければ発生します。[ 0 、1 ]2[0、1]2[0,1]^2 この問題を解決するには、2つのパーセプトロンを構築する必要があります。両方のパーセプトロンは、入力が灰色の領域にある場合は1を出力し、そうでない場合は少なくとも1つが0を出力します。 私が知っている入力とバイアスに適切な重みを見つける方法は3つあります。 試行錯誤 パーセプトロン学習アルゴリズム(ランダムな重み、学習率、複数のエポックを含む) 重みのベクトルを見つけるための幾何学的な方法(境界関数への直交線を見つけることを含む) ペンと紙だけでそれを行うと、それらすべてが非常に時間がかかります。 分類グラフに基づいてパーセプトロンの重みを計算/検索する簡単な方法はありますか?

1
スパイクニューラルネットワークと初期世代のANNの本質的な違い
私はさまざまな論文、主にマース(1997)からスパイキングニューラルネットワークをオンラインで研究しています。レートコードと見なされている以前のANNとは対照的に、SNNのパルスコードが何であるかを完全に理解しているわけではありません。私は神経科学のバックグラウンドを持っているので、用語と比率を理解しています。実際の実装について質問しています。 各ニューロンがSNNの現在の状態を更新するとき、それはすべてのシナプス前ニューロンの履歴全体を扱い、最後のステップだけではないという事実の実際的な違いはありますか?それは、前世代のANNに欠けている時間的特性を与えるものですか?

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.