人工知能

純粋にデジタル環境で「認知」機能を模倣できる世界での生活や課題についての概念的な質問に興味がある人のためのQ&A

3
文間の構造的類似性を計算するにはどうすればよいですか?
2つの文が類似しているかどうかを判断する必要がある問題に取り組んでいます。BM25アルゴリズムとワードネットシンセットを使用して、構文と意味の類似性を判断するソリューションを実装しました。解決策は適切に機能しており、文章内の単語の順序が乱雑であっても、2つの文章が類似していることを測定しています。例えば Pythonは優れた言語です。 良いpythonは言語です。 私の問題は、これらの2つの文が類似していると判断することです。 構造的類似性の可能な解決策は何でしょうか? 文章の構造をどのように維持しますか?

2
自動運転車は、決定を下すためにランダム性に頼っていますか?
最近、誰かが自動運転車を設計するとき、あなたは車を作るのではなく、実際にはコンピューター化されたドライバーであるという声明を出すのを聞いたので、あなたは人間の心をモデルにしようとしている-少なくとも運転できる人間の心。 人間は予測不可能であるか、むしろその行動が非常に多くの要因に依存しているため、そのいくつかは長い間説明されないままであるため、自動運転車はそれをどのように反映しますか? 予測不能の用量には用途があります。たとえば、2台の自動運転車が行き止まりで立ち往生している場合、車が同じシステムを実行している場合に同じアクションが同時に適用されるのを見るのではなく、ランダム性を注入することをお勧めします。 しかし、一方で、非決定論的手法は、特にテストにおいて、ソフトウェア開発とは関係がないことを知っています。エンジニアはそれをどのように制御し、それについて推論することができますか?

4
マシンの動機は何ですか?
現在、AI開発分野では、主な焦点はパターン認識と機械学習にあるようです。学習とは、フィードバックループに基づいて内部変数を調整することです。 マズローのニーズのヒエラルキーは、アブラハムマズローが提唱する心理学の理論であり、個人の最も基本的なニーズは、より高いレベルのニーズを達成するために動機付けられる前に満たさなければならないと主張しています。 マシンが行動する動機となる可能性があるのは何ですか?マシンは、ニーズの階層を説明するようなDNAのような構造を持っている必要があります(マズローの理論に似ています)。マシンの基本的なニーズは何でしょうか?

2
生成的敵対ネットワークはどのように機能しますか?
私は生成的敵対的ネットワーク(GAN)について読んでいますが、それに関していくつかの疑問があります。これまでのところ、GANには2つの異なるタイプのニューラルネットワークがあることを理解しています。1つは生成的(GGG)で、もう1つは判別的(DDD)です。生成ニューラルネットワークは、判別ニューラルネットワークが正確性を判断するデータを生成します。GANは、損失関数を両方のネットワークに渡すことで学習します。 判別(DDD)ニューラルネットは、GGGによって生成されたデータが正しいかどうかを最初にどのように知るのですか?最初にDDDを訓練してからGANに追加する必要がありますかGGGますか? 90%の精度で写真を分類できる、訓練されたDDDネットを考えてみましょう。このDDDネットをGANに追加すると、10%の確率で画像が間違っていると分類されます。このDDDネットでGANをトレーニングすると、画像の分類で同じ10%エラーが発生しますか?はいの場合、GANが有望な結果を示すのはなぜですか?

1
Deepmindの新しい「微分可能なニューラルコンピュータ」はどのようにスケールしますか?
Deepmind は、基本的にニューラルネットワークとメモリを組み合わせた「微分可能なニューラルコンピュータ」に関する論文を発表しました。 アイデアは、特定のタスクのために有用な明示的な記憶を作成して呼び出すようにニューラルネットワークに教えることです。これはニューラルネットワークの能力を十分に補完します。NNは重みに暗黙的に知識を保存するだけであり、単一のタスクで動作するために使用される情報はネットワークのアクティベーションにのみ保存され、追加する情報が増えるとすぐに劣化します。(LSTMは、短期記憶のこの低下を遅くしようとする試みの1つですが、それでも起こります。) 現在、アクティベーションで必要な情報を保持する代わりに、アクティベーションで特定の情報のメモリスロットのアドレスを保持しているため、これらも劣化する可能性があります。私の質問は、なぜこのアプローチが拡張されるべきかということです。タスク固有の情報がいくぶん多くても、アクティベーション時に適切なすべてのメモリスロットのアドレスを保持するネットワーク機能が再び圧倒されるべきではないでしょうか。

3
ゲーム以外の強化学習のアプリケーションはありますか?
ゲーム以外のアプリケーションで強化学習を教える方法はありますか? インターネットで見つけることができる唯一の例は、ゲームエージェントです。VNCは強化ネットワークを介してゲームへの入力を制御することを理解しています。これをCADソフトウェアなどでセットアップすることは可能ですか?

6
徹底的な検索の方法はAIと見なされますか?
ソリューションを徹底的に検索するプログラムもあれば、同様の回答をヒューリスティックに検索するプログラムもあります。たとえば、チェスでは、最適な次の動きの検索は本質的により網羅的である傾向がありますが、Goでは、検索スペースがはるかに大きいため、自然に最適な次の動きの検索がより発見的です。 良い答えを徹底的に徹底的に検索する手法はAIと見なされますか、それともAIと見なされる前にヒューリスティックアルゴリズムを使用する必要がありますか?もしそうなら、チェスをするコンピューターは人間のプロを打ち負かすことは意味のあるマイルストーンと見なされますか?

1
DQNに2つの異なるネットワークが必要なのはなぜですか?
私はを経たこの DQNの実装と私はライン124および125上の2つの異なるQネットワークが初期化されていることがわかります。私の理解から、私は1つのネットワークが適切なアクションを予測し、2番目のネットワークがベルマン誤差を見つけるためのターゲットQ値を予測すると思います。 Q値を予測するだけの単一のネットワークを作成して、両方の場合に使用できないのはなぜですか?計算時間を短縮するために行われたと私は推測しています。それ以外の場合は、各アクションのq値を見つけて、最適なものを選択する必要があります。これが唯一の理由ですか?何か不足していますか?

3
強化学習で制約付きアクションスペースを実装する方法?
Tensorflowの上に構築された非常に優れたTensorforceライブラリのおかげで、PPOエージェントで強化学習モデルをコーディングしています。 最初のバージョンは非常にシンプルでしたが、今では各ステップですべてのアクションを使用できない、より複雑な環境に飛び込んでいます。 5つのアクションがあり、それらの可用性が内部状態(前のアクションおよび/または新しい状態/観測スペースによって定義される)に依存するとします。 2つのアクション(0と1)は常に利用可能です 2つのアクション(2および3)は、internal_state == 0の場合にのみ使用できます 1つのアクション(4)は、internal_state == 1の場合にのみ使用できます したがって、internal_state == 0の場合は4つのアクションが利用可能であり、internal_state == 1の場合は3つのアクションが利用可能です。 私はそれを実装するいくつかの可能性を考えています: internal_stateに応じて、各ステップでアクションスペースを変更します。これはナンセンスだと思います。 何もしない:使用できないアクションを選択しても影響がないことをモデルに理解させます。 ほとんど何もしない:モデルが利用できないアクションを選択したときに、報酬にわずかにマイナスの影響を与えます。 モデルを支援する:モデルにinternal_state値+箇条書き2または3を通知する整数を状態/監視スペースに組み込む これを実装する他の方法はありますか?あなたの経験から、どれが一番いいですか?

2
ディープラーニングで強力なAIが生成されないようにする科学的/数学的な議論はありますか?
私はJudea PearlのThe Book of Whyを読みました。そこで彼は、ディープラーニングは美化されたカーブフィッティング技術であり、人間のような知性を生み出すことはできないと述べています。 彼の本から、認知能力の3つのレベルを説明するこの図があります: 現在のディープラーニングテクノロジーが生み出す「知性」は、関連性のレベルにしかないと考えています。したがって、AIは「Yをどのようにして実現できるか」(介入)や「私が別の行動をとったとしても、Xは引き続き発生するでしょうか?」(反事実)、そしてカーブフィッティング技術が私たちをより高いレベルの認知能力に近づけることができる可能性はほとんどありません。 私は彼の議論が直感的なレベルで説得力があると思いましたが、私はこの議論を強化するか、疑いを投げかけることができる物理的または数学的な法則を見つけることができません。 それでは、ディープラーニングが強力なAI(人間のような知性)を生成することを妨げる科学的/物理的/化学的/生物学的/数学的な議論はありますか?

3
機械学習で大部分が探索されていないトポロジはどれですか?[閉まっている]
閉じた。この質問はより集中する必要があります。現在、回答を受け付けていません。 この質問を改善したいですか?この投稿を編集するだけで1つの問題に焦点を当てるように質問を更新します。 5日前休業。 ジオメトリとAI マトリックス、キューブ、レイヤー、スタック、および階層は、トポロジーと正確に呼ぶことができるものです。この文脈でトポロジーを検討してください。学習システムのより高いレベルの幾何学的設計です。 複雑さが増すにつれ、これらのトポロジーを有向グラフ構造として表すと便利な場合があります。状態図とマルコフのゲーム理論に関する研究は、有向グラフが一般的に使用される2つの場所です。有向グラフには、頂点(多くの場合、閉じた図形として視覚化される)と、図形を結ぶ矢印として視覚化されるエッジがあります。 また、GANを有向グラフとして表すこともできます。この場合、各ネットの出力は、反対の方法で他のトレーニングを駆動します。GANはトポロジー的にメビウスの帯に似ています。 最適なソリューションに収束したり、最適なソリューションを追跡したりする数学だけでなく、そのような収束をサポートできるネットワーク接続のトポロジーも理解せずに、新しい設計とアーキテクチャを発見することはできません。オペレーティングシステムを作成する前に、オペレーティングシステムが何を必要とするかを想像しながら、最初にプロセッサを開発するようなものです。 まだ検討していないトポロジーを垣間見るために、最初にどのトポロジーが検討されたかを見てみましょう。 ステップ1 — 2次元での押し出し 1980年代には、元のパーセプトロンの設計を拡張して成功を収めました。研究者たちは、多層ニューラルネットワークを作成するために2番目の次元を追加しました。合理的な収束は、学習率によって減衰され、他のメタパラメーターで減衰された活性化関数の勾配による誤差関数の勾配の逆伝播によって達成されました。 ステップ2 —離散入力信号への次元の追加 既存の手動で調整された画像のたたみ込み手法に基づくたたみ込みネットワークの出現が、ネットワーク入力に垂直方向、色成分、およびフレームに導入されたことがわかります。この最後の次元は、CGI、顔の置換、および現代の映画制作におけるその他の形態学的手法にとって重要です。それがなければ、画像の生成、分類、ノイズ除去ができます。 ステップ3-ネットワークのスタック ニューラルネットのスタックが出現するのは1990年代後半であり、1つのネットワークのトレーニングが別のネットワークによって監視されています。これは、ニューロンの連続した層という意味でも、画像内の色の層という意味でもない、概念的な層の導入です。このタイプの階層化も再帰ではありません。それは、ある構造が別の完全に異なる種類の構造内の器官である自然界に似ています。 ステップ4 —ネットワークの階層 2000年代から2010年代初頭にかけての研究(ラプラシアンなど)からニューラルネットの階層が頻繁に出現することがわかります。トポロジーを表す有向グラフで、ネットワーク全体が頂点になるメタ構造が表示されます。 ステップ5%mdash; デカルトオリエンテーションからの出発 非カルテシアの体系的に繰り返される細胞の配置とそれらの間のつながりが文献に登場し始めています。たとえば、Gauge Equivariant Convolutional Networksと 20面体CNN(Taco S. Cohen、Maurice Weiler、Berkay Kicanaoglu、Max Welling、2019)は、凸正二十面体に基づく配置の使用を検討しています。 まとめ レイヤーには、隣接するレイヤー間の有向エッジの完全なセットにマッピングされた頂点と減衰行列の通常重要なアクティベーション関数があります[1]。画像のたたみ込みレイヤーは、多くの場合、2次元の頂点配置にあり、減衰キューブは隣接するレイヤー間の有向エッジの要約されたセットにマッピングされます[2]。スタックには、メタ有向グラフの頂点として層状ネット全体があり、それらのメタ頂点はシーケンスで接続されており、各エッジはトレーニングメタパラメーター、強化(リアルタイムフィードバック)信号、またはその他の学習制御のいずれかです。 。ネットの階層は、複数のコントロールを集約してより低いレベルの学習を指示できるという概念、または1つのより高いレベルのスーパーバイザネットワークによって複数の学習要素を制御できるフリップケースを反映しています。 学習トポロジーの傾向の分析 機械学習アーキテクチャの傾向を分析できます。トポロジーには3つの傾向があります。 因果関係の次元の深さ—信号処理のレイヤー。アクティベーションの1つのレイヤーの出力は、減衰パラメーター(重み)のマトリックスを通じて次のレイヤーの入力に供給されます。より大きな制御が確立されると、後方伝播における基本的な勾配降下から始めて、より深い深度を達成できます。 入力信号の次元—スカラー入力からハイパーキューブ(ビデオには水平、垂直、透明度を含む色深度、フレームがあります)—これはパーセプトロンの意味での入力数と同じではないことに注意してください。 トポロジーの発達—上記の2つは本質的にデカルトです。寸法は既存の寸法に直角に追加されます。ネットワークは(ラプラシアン階層のように)階層に配線され、メビウスストリップは(GANのように)円のようにストリップされるため、傾向は地形的であり、頂点がニューロンではなく、それらのより小さなネットワークである有向グラフによって最もよく表されます。 不足しているトポロジは何ですか? このセクションでは、タイトルの質問の意味について詳しく説明します。 それぞれがニューラルネットを表す複数のメタ頂点を配置して、複数のスーパーバイザーメタ頂点が連携して複数の従業員のメタ頂点を監視できる理由はありますか? エラー信号の逆伝播が、負のフィードバックの唯一の非線形等価物であるのはなぜですか? コントロールを表す2つの相互エッジがある場合、監視ではなくメタ頂点間のコラボレーションを使用できませんか? ニューラルネットは主に非線形現象の学習に使用されるので、ネットまたはそれらの相互接続の設計で他のタイプの閉じたパスを禁止するのはなぜですか? ビデオクリップを自動的に分類できるように、画像にサウンドを追加できない理由はありますか?その場合、脚本は映画の可能な特徴抽出であり、敵対的なアーキテクチャを使用して映画スタジオシステムなしで脚本を生成し、映画を制作できますか?そのトポロジーは有向グラフとしてどのように見えますか? 直交配置されたセルは、非直交の頂点とエッジの任意の規則的なパッキング配置をシミュレートできますが、プラスまたはマイナス90度以外のカメラの傾きが一般的であるコンピュータービジョンでこれを行うのは効率的ですか? 自然言語の理解と組み立て、または人工認識を目的とした学習システムで、ネットワーク内の個々のセルまたはAIシステム内のセルのネットワークを直交して配置することは効率的ですか? …

4
ニューラルネットワークが予測に優れている理由
私はニューラルネットワークを初めて使用し、ニューラルネットワークが分類問題で非常に優れている理由を数学的に理解しようとしています。 小さなニューラルネットワーク(たとえば、入力が2つ、非表示層に2つのノード、出力が2つのノード)の例をとると、出力に複雑な関数があり、線形の組み合わせではほとんどシグモイドになります。シグモイドの。 それで、それはどのように彼らが予測を上手くするのですか?最終的な関数は、ある種のカーブフィッティングにつながりますか?


2
「集中力」を持つ人工知能はありますか?
人間は複数のタスクを同時に実行できます(たとえば、音楽を聴きながら読むなど)が、主な焦点またはタスクから行うよりも効率が悪く、焦点が絞られていないソースからの情報を記憶します。 人工知能の場合、そのようなことがあるのでしょうか?たとえば、ニューラルネットワークにそのような特性があることは疑わしいですが、私は間違っているかもしれません。

2
関数近似を使用するとQラーニングが収束しないのはなぜですか?
表形式のQ学習アルゴリズムは、学習率に関する以下の条件(Robbins-Monro条件)が満たされていれば、最適な関数を見つけることが保証されていますQQQQ∗Q∗Q^* ∑tαt(s,a)=∞Σtαt(s、a)=∞\sum_{t} \alpha_t(s, a) = \infty ∑tα2t(s,a)&lt;∞Σtαt2(s、a)&lt;∞\sum_{t} \alpha_t^2(s, a) < \infty ここで、は、タイムステップで状態およびアクション関連付けられた値を更新するときに使用される学習率を意味します。ここで、はtrueであると想定されます。すべての状態のとアクション。αt(s,a)αt(s、a)\alpha_t(s, a)QQQsssaaattt0≤αt(s,a)&lt;10≤αt(s、a)&lt;10 \leq \alpha_t(s, a) < 1sssaaa 明らかに、場合、2つの条件がtrueになるためには、すべての状態とアクションのペアに無限にアクセスする必要があります。これは、本の強化学習:はじめににも記載されています、これは広く知られている必要があるという事実とは別に、トレーニング中に -greedyポリシー(または同様のポリシー)を使用する根拠となっています。0≤αt(s,a)&lt;10≤αt(s、a)&lt;10 \leq \alpha_t(s, a) < 1ϵε\epsilon Qラーニングが最適な関数を見つけることを示す完全な証明は、ラーニングの収束:単純な証明(Francisco S. Melo)の論文にあります。彼は、収縮マッピングのような概念を使用して、この収縮演算子の固定小数点である最適な関数(強化学習におけるベルマン演算子とは?も参照)を定義します。彼はまた、いくつかの仮定を前提として、に収束するランダムプロセスに関する定理(n。2)を使用しています。(あなたが数学の人でないなら、証明は従うのが簡単ではないかもしれません。)QQQQQQQQQ000 関数を表すためにニューラルネットワークが使用されている場合、Q学習の収束保証は引き続き有効ですか?関数近似を使用するとQ学習が収束する(または収束しない)のはなぜですか?関数近似を使用したQ学習のそのような非収束の正式な証明はありますか?QQQQQQQQQ 私は、関数近似を使用するときにQQQラーニングの非収束の背後にある直感を与えるものから、形式的な証明(または形式的な証明のある論文へのリンク)を提供するものへのさまざまなタイプの回答を探しています。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.