人工知能

純粋にデジタル環境で「認知」機能を模倣できる世界での生活や課題についての概念的な質問に興味がある人のためのQ&A

1
セルラーニューラルネットワークはニューラルネットワークの一種ですか?
私はセルラーニューラルネットワークを研究しており、すでにチュアの2つの記事(1988)を読んでいます。セルラーニューラルネットワークでは、セルはその隣接セルとのみ関係しています。そのため、リアルタイムの画像処理に簡単に使用できます。画像処理は、19個の数値(AおよびBと呼ばれる2つの3x3マトリックスと1つのバイアス値)で実行されます。 学習アルゴリズムがないので、セルラーニューラルネットワークをニューラルネットワークと呼べるかもしれません。彼らはどちらもある教師も教師なし。

3
AIはどのように言語を学習しますか?
AIが言語を教える方法が思いつかないことに気づいたとき、私はAIとその仕組みについて考えていました。子供は、言語と写真をオブジェクトに関連付けることで言語を学習する傾向があります(たとえば、人々が犬の周りで「犬」という言葉を言い、後に人々が「犬」と「車」と言って何を学ぶかを理解します」など)。ただし、テキストベースのAIでは、このメソッドを使用して学習することはできませんでした。これらのAIは、あらゆる種類の入力デバイスにアクセスできないためです。 私が思いつくことができる唯一の方法は、英語(またはそれが「話す」ことを意図されている任意の言語)ですべての単語と規則でプログラミングすることですが、これには、場合によっては何年もかかる可能性があります。 これをどのように行うことができるかについて誰かが何か考えを持っていますか?または、すでに完了している場合は、どのように実行しますか? ちなみに、この文脈では、私はAIを使用して、人間に近い知能を備えた人工知能システムを意味しており、言語に関する予備知識はありません。

8
自動運転車の利点は何ですか?
自動運転車の利点は何ですか? 同時により多くの車を車に乗せることができますが、同時に車を使う人が増えるので、車の交通量と公衆衛生の両方が実際に悪化するのではないでしょうか。 これに本当に興味がありますか?


5
意図的に人に嘘をついたり、人をだますことができるAIシステムはまだ開発されていますか?
今日のAIシステムは非常に有能なマシンであり、最近、自然言語処理と応答の領域がAIマシンの基本的なアルゴリズム構造と同様に革新とともに爆発的に増加しています。 私は、これらの最近のブレークスルーを踏まえて、(できればある程度の成功を収めて)知っている事実について人間が知っているようにうそをつくことができるAIシステムが開発されているかどうか尋ねています。 注:私が求めていることは、チューリングテストの標準的な議論を超えています。私は、事実を「理解」し、この事実に対する嘘を公式化できるマシンを求めています。おそらく他の事実を使用して、嘘の一部として信頼できる「隠蔽」を生成します。 EG:CIAスーパーコンピューターはスパイに盗まれ、コンピューターを使用して何かを行おうとしますが、コンピューターは依存関係が欠落していると言い続けます。または、その人はある場所に頻繁に出かけるが、現時点ではそこにいないことを知って、人の不正確な場所を与える。もちろん、これほど洗練されている必要はありません。

1
複雑な値のニューラルネットワークの利点は何ですか?
調査中、私は「複雑な値のニューラルネットワーク」に出会いました。これは、複雑な値の入力(おそらく重みも)で機能するニューラルネットワークです。この種類のニューラルネットワークの、実数値のニューラルネットワークと比較した場合の利点(または単にアプリケーション)は何ですか?

3
現在のAI開発を妨げている主な問題は何ですか?
私はコンピュータエンジニアリングの経験があり、人間の思考を模倣するためのより優れたアルゴリズムの開発に取り組んでいます。(私のお気に入りの1つは、言語処理と意思決定に適用されるアナログモデリングです。)ただし、研究を重ねるほど、AIがいかに複雑であるかがわかります。 私はこの分野で多くの問題に取り組みましたが、時々私は車輪を再発明したり、すでに解決できないことが証明されている問題(すなわち、停止問題)を解決しようとしていることに気づきます。したがって、AIを促進するために、この分野での進歩を妨げている現在の障害をよりよく理解したいと思います。 たとえば、一部の機械学習アルゴリズムの時間と空間の複雑さは超多項式であるため、高速のコンピューターでもプログラムが完了するまでに時間がかかる場合があります。それでも、一部のアルゴリズムは、小さなデータセットを処理しているときにデスクトップや他のコンピューターで高速になる場合がありますが、データのサイズを大きくすると、アルゴリズムが扱いにくくなります。 現在AI開発が直面している他の問題は何ですか?

2
CNNトレーニングでより多くの時間を消費するレイヤーはどれですか?コンボリューションレイヤーとFCレイヤー
畳み込みニューラルネットワークでは、どのレイヤーがトレーニングで最大の時間を消費しますか?畳み込みレイヤーまたは完全に接続されたレイヤー?これを理解するには、AlexNetアーキテクチャを使用できます。研修過程の時間分解を見てみたい。相対的な時間の比較が欲しいので、一定のGPU構成をとることができます。

3
REINFORCEアルゴリズムの割引率が2回表示されるのはなぜですか?
私は「強化学習:リチャードS.サットンとアンドリューG.バルトによる序論(完全なドラフト、2017年11月5日)」という本を読んでいました。 271ページに、一時的なモンテカルロポリシー勾配法の疑似コードが示されています。この疑似コードを見ると、なぜ割引率が2回表示されるように見えるのか理解できません。1回は更新状態で、2回目は返品内です。【下図参照】 ステップ1の後のステップの戻りは、最初のステップの戻りの単なる切り捨てのようです。また、本の上の1ページだけを見ると、割引率が1つだけの方程式(戻り値内の方程式)が見つかります。 では、なぜ疑似コードが異なるように見えるのですか?私は何かを誤解していると思います: θt + 1 =˙ θt+ α Gt∇θπ(At|St、θt)π(At|St、θt)。(13.6)(13.6)θt+1 =˙ θt+αGt∇θπ(あt|St、θt)π(あt|St、θt)。 {\mathbf{\theta}}_{t+1} ~\dot{=}~\mathbf{\theta}_t + \alpha G_t \frac{{\nabla}_{\mathbf{\theta}} \pi \left(A_t \middle| S_t, \mathbf{\theta}_{t} \right)}{\pi \left(A_t \middle| S_t, \mathbf{\theta}_{t} \right)}. \tag{13.6}

4
人工生命における自発的なレプリケーターの出現
The Selfish Gene(Dawkins)の重要な石の1つは、レプリケーター、つまり、自分自身を複製できる分子の自然発生です。 これは、制限のない進化/人工生命シミュレーションのインシリコでモデル化されましたか? AvidaやTierraなどのシステムは、レプリケーションメカニズムを明示的に指定します。その他の遺伝的アルゴリズム/遺伝的プログラミングシステムは、複製メカニズムを明示的に検索します(たとえば、フォンノイマンユニバーサルコンストラクターを簡略化するため)。 原始的なデジタルスープからレプリケーターが出現するシミュレーションへのリンクを歓迎します。

4
データの関連機能を選択するにはどうすればよいですか?
最近、特定のリソースに対する支出のコスト分析を行う問題に取り組んでいました。私は通常、分析からいくつかの手動の決定を行い、それに応じて計画します。 私は、さまざまな時間枠とタイプ(他のさまざまな詳細な用途)でのリソースの使用を定義する、Excel形式の数百の列を持つビッグデータセットを持っています。また、過去4年間のデータと、それに応じて発生した実際のリソース使用量とコストに関する情報も持っています。 NNをトレーニングして事前にコストを予測し、手動でコスト分析を行う前に計画を立てることを望んでいました。 しかし、私が直面している最大の問題は、そのような分析のための機能を特定する必要があることです。データセットから特徴を特定する方法があることを望んでいました。 PS-私はPCAと他のいくつかの機能セット削減手法について考えがあります。私が見ているのは、そもそもそれらを識別する方法です。

2
コンピューターはユーザーの感情を理解できますか?
私は感情に訴えるコンピューティングを研究しています。特に、私は感情認識の部分、つまりユーザー/被験者が感じている感情を認識する作業を研究しています。たとえば、afectivaはこの目的に使用できます。私はこれらのモデルの妥当性ではなく、モデルで何をするのかについて懸念を持っています。 感情への対応についてはどうですか?コンピューターはユーザーの感情を本当に理解できるでしょうか?

5
ディープニューラルネットワークとディープラーニングが一般的な知能を実現するには不十分なのはなぜですか
ディープラーニング(DL)およびディープ(er)ネットワークに関連するすべてのものは「成功」しているように見え、少なくとも非常に速く進行しており、AGIが到達可能であるという信念を育んでいます。これは人気のある想像です。DLは、AGIの作成など、非常に多くの問題に取り組むためのすばらしいツールです。しかし、それだけでは十分ではありません。ツールは必要な要素ですが、多くの場合不十分です。 ドメインの主要人物は、他の場所で進歩を目指しています。このレポート/クレームには、Yoshua Bengio、Yann LeCun、Geoff Hintonの声明へのリンクが集められています。レポートはまた説明します: DLの主な弱点(私がそれらを見ると)は、次のとおりです。最も単純な可能なモデルニューロンへの依存(LeCunがそれらを呼び出すときの「漫画」)。エネルギー関数と対数尤度法の基礎である19世紀の統計力学と統計からのアイデアの使用。バックプロップや確率勾配降下法などの手法でこれらを組み合わせると、適用範囲が非常に限定され(オフライン、ほとんどがバッチ処理、教師あり学習)、高度な才能を持つ実務家(別名「確率的大学院降下」)が必要になり、大量の高価なラベル付きのトレーニングデータと計算能力。才能を誘惑または購入し、無制限のリソースを展開してデータを収集し、それを処理することができる大企業にとっては優れていますが、DLはほとんどの人にとってアクセスも有用でもありません。 このような説明は興味深く関連性がありますが、実際には問題の要点を扱っていません。何が不足していますか? 質問は広いようですが、それは単純な答えがないためかもしれません。AGIに欠けているDLを特定する方法はありますか?

2
誰かがまだ概念依存理論を使用していますか?
Roger Schankは、1970年代に、Conceptual Dependency(CD)を使用して言語処理に関する興味深い研究を行いました。その後、彼は最近では教育に従事しているため、フィールドから少し移動しました。自然言語生成(BABEL)、ストーリー生成(TAILSPIN)、およびその他の領域にはいくつかの有用なアプリケーションがあり、個々の文章ではなく計画やエピソードが含まれることがよくありました。 他の誰かがCDまたはその変種を使い続けましたか?私は、ストーリーを生成するための表現としてCDを使用するHovyのPAULINEを除いて、他のプロジェクトについては知りません。

8
人工一般知能が可能であることの証明
コンピュータサイエンスでは、人間の心はチューリングマシンで再現できると想定されているため、人工一般知能(AGI)が可能です。そうでなければ、神秘的な何かを信じることであり、神秘的な信念は誤りです。 AGIが可能であるという他の議論は知りませんが、前述の議論は非常に弱いものです。 少なくとも理論的には、AGIが可能であるという厳密な証拠はありますか?人間の心でできるすべてのことをプログラムとしてエンコードできることをどうやって知るのでしょうか。
11 philosophy  agi  proofs 

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.