人工知能

純粋にデジタル環境で「認知」機能を模倣できる世界での生活や課題についての概念的な質問に興味がある人のためのQ&A

1
Googleの自動運転車は、一時停止標識が印刷されたTシャツを着た人を見ると停止しますか?
では、Googleの自己駆動車用の障害物隠し記事我々はそれを読むことができます: Googleの車は、地図上にない一時停止標識を検出して応答することができます。これは、建設現場で使用される一時標識を処理するために導入された機能です。 グーグルは、その車はマッピングされていないほとんどすべての一時停止標識を識別でき、車両が常に交通、歩行者、その他の障害物を監視しているため、標識を見逃しても安全性を維持すると述べています。 一時停止の標識が印刷されたTシャツを着た車が(衝突経路上ではなく)その前の誰かを発見した場合、どうなりますか。車は反応して停止しますか?

4
動的計算グラフとは何ですか?
PyTorchやTensorFlow throughなどのフレームワークTensorFlow Fold動的計算グラフをサポートし、データサイエンティストから注目を集めています。 ただし、動的計算グラフの理解に役立つリソースが不足しているようです。 動的計算グラフの利点には、入力データのさまざまな量に適応する機能が含まれているようです。トレーニング中の各入力セットインスタンスに応じて、レイヤー数、各レイヤーのニューロン数、活性化関数、およびその他のNNパラメーターが自動的に選択されるようです。これは正確な特性評価ですか? 静的モデルに対する動的モデルの利点は何ですか?それがDCGが注目を集めている理由ですか?要約すると、DCGとは何ですか、またDCGの長所と短所は何ですか?

1
Lovelace Test 2.0はアカデミックな環境でうまく使用されていますか?
2014年10月、Mark Riedl博士は、オリジナルのLovelace Test(2001年に公開)に触発された後、「Lovelace Test 2.0」と呼ばれるAIインテリジェンスのテスト方法を公開しました。マークは、オリジナルのラブレーステストに合格することは不可能であると考えていたため、より弱く、より実用的なバージョンを提案しました。 Lovelace Test 2.0は、AIがインテリジェントであるためには創造性を示さなければならないという仮定を立てています。論文自体から: Lovelace 2.0テストは次のとおりです。人工エージェントaは次のようにチャレンジされます。 タイプtの成果物oを作成する必要があります。 o制約Cのセットに準拠する必要があります。ci∈Cは自然言語で表現可能な基準です。 tとCを選択した人間の評価者hは、oがtの有効なインスタンスであり、Cを満たすことを満足します。そして 人間の審判員rは、tとCの組み合わせが平均的な人間にとって非現実的ではないと判断します。 人間の評価者は、AIが勝つための非常に簡単な制約を考え出す可能性があるため、人間の評価者は、AIが失敗するまで、AIに対してますます複雑な制約を考え続けることが期待されます。Lovelace Test 2.0のポイントは、さまざまなAIの創造性を比較することであり、チューリングテストのように「インテリジェンス」と「非インテリジェンス」の明確な境界線を提供することではありません。 ただし、このテストが実際にアカデミックな環境で使用されているのか、それとも現時点で思考実験としてのみ使用されているのかについて興味があります。Lovelaceテストは、アカデミックな環境では簡単に適用できるように見えますが(人工エージェントをテストするために使用できる測定可能な制約を開発する必要があるだけです)、主観的すぎる場合もあります(人間は特定の制約のメリットに同意できない場合があり、 AIによって作成された創造的なアーティファクトが実際に最終結果を満たします)。


7
デジタル値が単なる推定値である場合、AIのアナログに戻ってみませんか?
20世紀のアナログ回路からデジタル回路への移行の背後にある推進力は、より高い精度とより低いノイズへの欲求によるものです。現在、結果が近似でノイズが正の値であるソフトウェアを開発しています。 人工ネットワークでは、勾配(ヤコビアン)または2次モデル(ヘッシアン)を使用して、収束アルゴリズムの次のステップを推定し、許容範囲の不正確さと疑念を定義します。1 収束戦略では、ランダムまたは擬似ランダム摂動を注入して意図的にノイズを追加し、本質的に収束中に最適化表面の極小値を飛び出すことで信頼性を向上させます。2 現在のAIシステムに受け入れられ、意図的に導入されているのは、電子機器をデジタル回路に動かしたのと同じことです。 ニューラルネットのアナログ回路に戻り、デジタル信号処理要素のマトリックスではなく、オペアンプマトリックスを使用して実装しませんか? 人工ネットワーク学習パラメーターの値は、D-Aコンバーターを介して充電された統合コンデンサーを使用して維持できるため、学習状態はデジタル精度と利便性の恩恵を受け、順伝播はアナログの利点を享受できます。 より速い速度 3 ネットワークセルを表すトランジスタの桁数が少ない 自然な熱雑音4 アナログ人工ネットワークの学術論文または特許検索により、過去40年間に多くの仕事が明らかになり、研究傾向は維持されています。計算アナログ回路は十分に開発されており、ニューラルアレイの基礎を提供します。 デジタル計算に対する現在の強迫観念は、AIアーキテクチャオプションの一般的な見解を曇らせているでしょうか? ハイブリッドアナログは人工ネットワークの優れたアーキテクチャですか? 脚注 [1] PAC(おそらくほぼ正しい)学習フレームワークは、許容誤差ϵϵ\epsilonおよび許容誤差δδ\deltaを特定のモデルタイプの学習に必要なサンプルサイズに関連付けます。(1 − ϵ1−ϵ1 - \epsilonは精度を表し、1 - δ1−δ1 - \deltaはこのフレームワークの信頼。) [2]適切な戦略とハイパーパラメーターを使用すると、学習中により迅速に収束する確率的勾配降下が示され、人工ネットワークの典型的な実世界のアプリケーションでのベストプラクティスになりつつあります。 [3] Intel Core i9-7960Xプロセッサーは4.2 GHzのターボ速度で動作しますが、標準の固定衛星放送は41 GHzです。 [4]アバランシェ点で逆バイアスされたツェナーダイオードの電子リークを増幅およびフィルタリングすることにより、シリコンで熱ノイズを得ることができます。量子現象の原因は、ジョンソンナイキスト熱雑音です。サンギネッティら 等 「携帯電話での量子乱数生成」(2014)の状態、「検出器は、伝送確率ηの損失チャネルとしてモデル化でき、その後に単位効率の光子電子変換器が続きます...分布が測定されます量子不確実性と技術的ノイズの組み合わせである」とCalTechのJTWPAの成果があります。これらは両方とも、集積回路で真に非決定的な量子ノイズを生成するための標準になる可能性があります。 参照資料 畳み込みスパイクニューラルネットワークによる画像パッチのSTDP学習、Saunders et。al。2018、U MassおよびHAS 限定精度アナログ計算による汎用コード高速化、Amant et。ほか、2014 アナログコンピューティングと生物学的シミュレーションは、2016年Devin Coldeweyの新しいMITコンパイラから後押しされます Larry Hardestyによるアナログコンピューティングのリターン、2016年* なぜアナログ計算なのか?、NSA機密解除文書 アナログコンピューティングに戻る:コロンビアの研究者は、アナログコンピューティングとデジタルコンピューティングを1つのチップに統合します(コロンビア大学、2016年) リコンフィギャラブルコンピューティング用のフィールドプログラマブルクロスバーアレイ(FPCA)、Zidan et。al。、IEEE、2017 FPAA / …

3
畳み込みニューラルネットワークと通常のニューラルネットワークの違いは何ですか?
特にconvolutional-neural-networksおよびneuro-networksのタグで、これらの用語がこのサイトに頻繁に投げられているのを見てきました。 ニューラルネットワークは、人間の脳に大まかに基づいたシステムであることを知っています。しかし、畳み込みニューラルネットワークと通常のニューラルネットワークの違いは何ですか?1つのちょうどたくさんより、エヘン、複雑とされて畳み込まれ、他のよりも?

2
人間だけが解決できる問題
reCAPTCHAの複雑さが増すにつれて、人間だけが解決できる問題(または人間の脳を正確に再現しない限りAIは解決できないという問題)の存在について疑問に思いました。 。 たとえば、かつては歪んだテキストは人間だけが解くことが可能でした。でも… 最も困難な状況でも、コンピューターの[歪んだテキスト]テストは99.8%になりました。 また、歪んだテキストを実際の人間の検出に使用できないことも明らかです。 また、そのような問題の作成(歪んだテキストなど)にアルゴリズムを使用できるかどうか、または人間の脳の独創性が必要かどうかも知りたいと思います。


3
ミラーニューロンの計算モデルはありますか?
ウィキペディアから: ミラーニューロンは、動物が行動するときと、動物が別の動物によって実行される同じ行動を観察するときに発火するニューロンです。 ミラーニューロンは模倣学習に関連しています。これは、現在の現実のAI実装にはない非常に便利な機能です。入出力ニューロンの例(教師あり学習)または報酬(強化学習)から学習する代わりに、ミラーニューロンを備えたエージェントは、他のエージェントを単純に観察し、その動きを独自の座標系に変換することで学習できます。計算モデルに関して、この主題に関して私たちは何を持っていますか?

1
ボルツマンマシンは、ホップフィールドネットよりも多くのパターンを格納できますか?
これはAIのクローズドベータ版であり、この質問はユーザー番号47によって投稿されています。 ウィキペディアによると、 ボルツマンマシンは、ホップフィールドネットの確率的で生成的な対応物と見なすことができます。 どちらもビットパターンを学習するようにトレーニングできるリカレントニューラルネットワークです。次に、部分的なパターンが提示されると、ネットは完全な完全なパターンを取得します。 ホップフィールドネットワークの容量は0.138であることが証明されています(たとえば、約138ビットのベクトルは、1000ノードごとにストレージから呼び出すことができます、Hertz 1991)。 ボルツマンマシンは確率的であるため、1つの保存されたパターンと別の保存されたパターンのエネルギー差が類似している場合、必ずしも同じパターンを表示するとは限らないというのが私の理解です。しかし、この確率論のために、おそらくより密度の高いパターン保存が可能になりますが、エネルギー差に関して常に「最も近い」パターンを取得できるという保証はありません。これは本当でしょうか?または、Hopfieldネットはより多くのパターンを保存できますか?

3
OCRがAIの良い例として認識できないのはなぜですか?
上のWikipediaのページ AIについて、私たちは読むことができます: 光学式文字認識は、もはや「人工知能」が日常的な技術になった例とはみなされていません。 一方、手書き数字のMNISTデータベースは、ニューラルネットワークとそのエラー率のトレーニングとテスト用に特に設計されています(分類子を参照)。 では、なぜ上記の引用では、OCRはもはやAIの模範ではないと述べているのでしょうか?
17 ocr 

3
GAN損失関数を理解する
私は、Generative Adversarial Networksの理解(Daniel Seitaによるブログ投稿)で提供されているGAN損失関数の理解に苦労しています。 標準的なクロスエントロピー損失では、シグモイド関数を介して実行された出力と、結果のバイナリ分類があります。 シータ州 バツ1バツ1x_1 H((x1、y1)、D )= − y1ログD (x1)− (1 − y1)ログ(1 − D (x1))H((バツ1、y1)、D)=−y1ログ⁡D(バツ1)−(1−y1)ログ⁡(1−D(バツ1)) H((x_1, y_1), D) = -y_1 \log D(x_1) - (1 - y_1) \log (1 - D(x_1)) これは単なる期待のログであり、理にかなっていますが、GAN損失関数で、同じ反復で真の分布からのデータと生成モデルからのデータをどのように処理できますか?

1
バックプロパゲーション手法の違い
楽しみのためだけに、ニューラルネットワークを開発しようとしています。 さて、逆伝播のために2つのテクニックを見ました。 最初のものは、ここと他の多くの場所でも使用されています。 それは何ですか: 各出力ニューロンのエラーを計算します。 それをネットワークに逆伝播します(各内部ニューロンのエラーを計算します)。 次の式で重みを更新します(ここで、重みの変化、学習速度、シナプスから入力を受信し、シナプスで送信される出力であるニューロンのエラー)。 データセットの各エントリに対して、必要な回数だけ繰り返します。 ただし、このチュートリアルで提案されているニューラルネットワーク(GitHubでも入手可能)は、異なる手法を使用しています。 エラー関数を使用します(他の方法にはエラー関数がありますが、トレーニングには使用しません)。 重みから開始して最終エラーを計算できる別の関数があります。 (勾配降下による)その関数を最小化します。 さて、どのメソッドを使用する必要がありますか? 最初の1つが最も使用されていると思います(それを使用して別の例を見ていたため) 特に、私は知りません: (二次関数を使用していないため)局所的最小値の影響を受けにくいですか? 各重みの変動はその出力ニューロンの出力値の影響を受けるため、データセットのエントリは、出力ニューロンだけでなくニューロンでより高い値を生成するだけで、他のエントリよりも重みに影響しませんか? 今、私は最初の手法を好むのです。なぜなら、実装がより簡単になり、考えやすくなるからです。 しかし、もしそれが私が言及した問題を持っているなら(そうしないことを望みます)、2番目の方法でそれを使用する実際の理由はありますか?

4
ディープラーニングアプローチの問題と代替策
過去50年にわたり、ニューラルネットの人気の上昇/下降/上昇は、AI研究の「バロメーター」のような役割を果たしてきました。 このサイトの質問から、人々がディープラーニング(DL)をさまざまな困難な問題に適用することに関心を持っていることは明らかです。 したがって、2つの質問があります。 プラクティショナー-DLを「箱から出して」問題に適用する際の主な障害は何ですか? 研究者-実際の問題に対処するのに役立つ可能性のあるテクニックを使用していますか(開発しましたか)?それらはDL内にありますか、それとも代替アプローチを提供しますか?


弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.