人工知能

純粋にデジタル環境で「認知」機能を模倣できる世界での生活や課題についての概念的な質問に興味がある人のためのQ&A

2
ニューラルネットワークを段階的にトレーニングすることは可能ですか?
出力クラスが最初から(すべて)定義されていないニューラルネットワークをトレーニングしたいと思います。着信データに基づいて、より多くのクラスが後で導入されます。つまり、新しいクラスを導入するたびに、NNを再トレーニングする必要があります。 NNを段階的に、つまり以前のトレーニングフェーズで以前に取得した情報を忘れずにトレーニングするにはどうすればよいですか?

7
何かをAIと呼ぶための最小要件は何ですか?
私は人工知能(AI)の用語が最近使われすぎていると信じています。たとえば、自動操縦(車や飛行機など)に乗っていたり、背後に単純なアルゴリズムがあったとしても、人々は何かが自動で動くことを見てAIと呼んでいます。 何かがAIだと言えるようにするための最低限の一般的な要件は何ですか?

4
SiriとCortanaのAIプログラムはありますか?
SiriとCortanaは、人間とほとんど同じように通信します。主に質問(アラームやリマインダーを設定しない)で検索結果を表示するGoogleとは異なり、SiriとCortanaは人と同じように回答を提供します。 それで、彼らは実際のAIプログラムなのでしょうか? (「質問」とは、学術関連の質問やルート/気温の質問ではなく、意見に基づく質問を意味します)。


5
感情的知性はどのように実装できますか?
私は感情を認識し、制御し、表現し、対人関係を慎重かつ共感的に扱う能力として定義された感情的知性を見てきました。 人工知能がこの問題に取り組み始め、コンピューターの感情知能を開発し始めるための戦略は何ですか? 今日これがすでにある程度起こっている例はありますか? チューリングテストに合格したコンピューターは、必ずしも感情的な知性を表現しないのでしょうか、それとも明らかなコンピューターと見なされますか? おそらくそれが、テストに合格する初期のプログラムが、おそらく感情的な知能が低いと思われる若者を表した理由です。

4
CNNのパターン認識機能は画像処理に限定されていますか?
抽象データをグラフィカルに表現するなど、既存の画像がない問題領域でパターン認識に畳み込みニューラルネットワークを使用できますか?それは常に効率が悪いでしょうか? この開発者によると、現在の開発はさらに進む可能性があるが、画像認識以外の制限がある場合はそうではないという。

4
ニューラルネットワークは素数を検出できますか?
私は素数を見つけるための効率的な方法を探していません(もちろんこれは解決された問題です)。これは、「もしも」の質問です。 それで、理論的には、与えられた数nが合成か素数かを予測するためにニューラルネットワークを訓練できますか?そのようなネットワークはどのようにレイアウトされますか?

4
定理を証明するために、深いネットワークを訓練できますか?
一次述語計算に多数の証明があると仮定します。また、その形式の数学の領域にも公理、帰納法、定理があると仮定します。 証明された各命題と、その特定の命題を取り巻く既存の理論の本体を、トレーニングセットの例として、また関連するラベルとしての命題の既知の良い証明と考えてください。ここで、このサンプルセットでトレーニングするために特別に設計されたディープな人工ネットワークと、そうするためにハイパーパラメーターが正しく設定されていることを考えます。 新しい命題の提示と、それを取り巻く既存の理論が入力で一次述語計算で提示することで、出力で証明を生成するような方法で、深い人工ネットワークを訓練することは可能ですか? (もちろん、そのような証明は手動でチェックする必要があります。) 結果の良い証明の割合が十分に高い場合、訓練された深層ネットワークに命題を提案する遺伝的アルゴリズムを作成し、それによって証明を作成することは可能でしょうか? それは可能ですか? この種の深いネットワーク設計を使用して、Collat​​z予想またはRiemann予想を解決したり、数学者が正当な証明に到達できるように少なくともパターンを再配置することは可能でしょうか?



1
Qラーニングとポリシーグラデーションメソッドの関係は何ですか?
私の知る限り、RLの問題を解決するために使用される2つの主要なアプローチは、Qラーニングとポリシーグラデーション(PG)です。Qラーニングは特定の状態で実行された特定のアクションの報酬を予測することを目的としていますが、ポリシーの勾配はアクション自体を直接予測します。 ただし、どちらのアプローチも私と同じように見えます。つまり、アクションの最大報酬の予測(Qラーニング)は、アクションを直接行う確率(PG)の予測と同等です。損失が逆伝播する方法に違いはありますか?

4
強化学習で無効な動きを処理する方法は?
5列/五目並べをプレイできるAIを作りたい。タイトルで述べたように、これには強化学習を使用します。 私は、使用ポリシー勾配すなわちベースラインと、補強、方法。値とポリシー関数の近似には、ニューラルネットワークを使用します。畳み込み層と完全に接続された層があります。出力を除くすべてのレイヤーが共有されます。ポリシーの出力層には、(ボードのサイズ)出力ユニットとsoftmaxがあります。したがって、確率的です。しかし、ネットワークが無効な移動の可能性が非常に高い場合はどうでしょうか?無効な移動とは、エージェントが1つの「X」または「O」を含む正方形をチェックしたい場合です。私はそれがそのゲーム状態で立ち往生できると思います。8 × 8 = 648×8=648 \times 8=64 この問題の解決策をお勧めしますか? 私の推測では、俳優と批評家の方法を使用することです。無効な動きについては、負の報酬を与え、相手にターンを渡す必要があります。

2
ジェフ・ホーキンスのAIフレームワークの欠陥は何ですか?
2004年、パームパイロットの発明者であるジェフホーキンスは、On Intelligenceと呼ばれる非常に興味深い本を出版しました。 この理論はメモリー予測フレームワークと呼ばれ、ボトムアップ(フィードフォワード)だけでなく、トップダウンの情報処理や、異なる将来のシナリオを同時に、しかし個別に予測する能力(説明されているように)この論文では)。 Memory-Predictionフレームワークの約束は、将来の可能性の安定した高レベル表現の教師なし生成です。おそらく、AIの多くの研究分野に革命をもたらす何か。 ホーキンスは会社を設立し、彼のアイデアを実行しました。残念なことに、10年以上後、彼のアイデアの約束はまだ果たされていません。これまでのところ、実装は異常検出にのみ使用されていますが、これは実際に実行したいことの反対です。理解を抽出する代わりに、人工皮質が理解できないインスタンスを抽出します。 私の質問は、ホーキンスのフレームワークがどのように不足するかです。彼の理論が実際に機能することをこれまで妨げている具体的または概念的な問題は何ですか?
19 htm 

3
アシモフの法則は設計上欠陥がありますか、それとも実際に実行可能ですか?
アイザックアシモフの有名なロボティクスの3つの法則は、アシモフの空想科学小説の文脈に由来しています。それらの物語では、3つの法律は、不測の事態や操作された状況が大混乱で爆発するのを防ぐための安全対策として機能します。 多くの場合、アシモフの物語はそれらを破る方法を見つけ、作家が法律自体にいくつかの修正を加えるように導きます。例えば、彼の話のいくつかで、彼は第一法則を変更し、第四(または第零)法を追加、あるいは完全にすべての法律を取り除きます。 しかし、ポピュラーカルチャーでは、AI研究の分野自体でさえ、ロボティクスの法則は非常に真剣に考えられていると主張するのは簡単です。法律の異なる、主観的な、相互に排他的な解釈の副次的な問題を無視して、法律自体がその設計によって本質的に欠陥がある、あるいは、実際に使用するのに十分に強いことを証明する議論はありますか?同様に、より良い、より厳格なセキュリティヒューリスティックセットがその目的のために設計されていますか?

11
人間のような感情を経験するAIを開発することにより、どのような目的が達成されますか?
で、最近のウォールストリートジャーナルの記事、ヤンLeCunnは、次の文を作ります: 人間レベルのAIを達成するための次のステップは、インテリジェントな(自律的ではない)マシンを作成することです。車内のAIシステムは安全に家に帰りますが、中に入ったら別の目的地を選択することはありません。そこから、感情や道徳的価値とともに、基本的なドライブを追加します。脳と同じように学習する機械を作成すれば、人間のような資質と欠陥を継承する機械を想像するのは簡単です。 個人的には、感情を経験するAIを作成する理由がないため、人工知能の感情について話すのは馬鹿げていると一般に考えています。明らかに、ヤンは同意しません。質問は、これを行うことでどのような目的が果たされるのでしょうか?AI は有用なツールとして機能するために感情を必要としますか?

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.