人工知能

純粋にデジタル環境で「認知」機能を模倣できる世界での生活や課題についての概念的な質問に興味がある人のためのQ&A

7
ストーリーの概要を生成するようにAIをトレーニングできますか?
最近の流行の1つは、ニューラルネットワークをトレーニングして、脚本や、フレンズやシンプソンズなどの新しいエピソードを生成することですが、それは問題ありません。興味深いので、実際に生成できるプログラムを作成するために必要な最初のステップになるかもしれません。賢明で理解できるストーリー。 この文脈では、ニューラルネットワークを特別にトレーニングして、ストーリーの構造や脚本を研究し、プロットポイントやヒーローの旅のステップなどを生成して、ストーリーのアウトラインを効率的に作成できますか? 私には、これはオンラインの無数のプロットポイントジェネレーターとは異なりますが、類似点は認めざるを得ません。テクノロジーや実装がまだそこにあるかどうか、そしてもしそうだとすれば、それをどのように実行するかについて興味があります。

1
ログファイル分析のためのAIの設計
既知の機器のエラーを見つけて、新しい障害パターンを見つけるAIツールを開発しています。このログファイルは時間ベースであり、既知のメッセージ(情報とエラー)があります。JavaScriptライブラリを使用しています。イベントドロップを使用してデータをソフトに表示していますが、実際の仕事と疑問は、既知のAIを見つけるためにAIをトレーニングする方法です。パターンと新しい可能なパターンを見つけます。私はいくつかの要件があります: 1-ツールは次のいずれかになります。追加の環境のインストールに依存していない、またはb。少ないほど良いです(完璧なシナリオは、スタンドアロンモードのブラウザーでツールを完全に実行することです)。 2-パターンアナライザを断片化する可能性、一種のモジュール性、エラーごとに1つのモジュール。 これを行うために推奨されるアルゴリズムの種類は何ですか(ニューラルネットワーク、遺伝的アルゴリズムなど)?JavaScriptを使用して動作する何かが存在しますか?そうでない場合、このAIを作成するのに最適な言語は何ですか?

2
深い残余ネットワークはネットワークのアンサンブルとして見られるべきですか?
問題は、Deep Residual Networks(ResNets)のアーキテクチャについてです。5つのメイントラックすべてで「大規模視覚認識チャレンジ2015」(ILSVRC2015)で1位を獲得したモデル: ImageNet分類:「超深層」(引用Yann)152層ネット ImageNet検出:2番目より16%優れています ImageNetローカリゼーション:2番目より27%優れています COCO検出:2回目より11%良好 COCOセグメンテーション:2番目より12%優れている 出典: MSRA @ ILSVRC&COCO 2015コンテスト(プレゼンテーション、2番目のスライド) この作業については、次の記事で説明しています。 画像認識のためのディープ残差学習(2015、PDF) マイクロソフトリサーチチーム(ResNetの開発者:Kaiming He、Xiangyu Zhang、Shaoqing Ren、Jian Sun)の記事: 「深い残余ネットワークにおけるアイデンティティマッピング(2016)」 深度が重要な役割を果たすことを述べる: 「私たちはこれらの結果を、シンプルですが本質的なコンセプトによって取得します—より深くします。これらの結果は、奥行きの限界を押し広げる可能性を示しています。」 それは彼らのプレゼンテーションでも強調されています(より深い-より良い): -「モデルが深いほど、トレーニングエラーが大きくなることはありません。」 -「より深いResNetの方がトレーニングエラーが少なく、テストエラーも少ない。」 -「より深いResNetの方がエラーが少ない。」 -「すべてがより深い機能からより多くの利益を得る–累積的な利益!」 -「より深い方が良い」 以下は、34層残差の構造です(参照用)。 しかし、最近私は、それらが指数アンサンブルであることを示す残差ネットワークの新しい解釈を導入する1つの理論を発見しました。 残余ネットワークは、比較的浅いネットワークの指数関数的集合です(2016) ディープレスネットは、さまざまな深度で出力がプールされる多くの浅いネットワークとして説明されています。記事に画像があります。説明付きで添付します: 残余ネットワークは従来、式(1)の自然な表現である(a)として示されます。この定式化を方程式(6)に展開すると、3ブロックの残差ネットワーク(b)の解明されたビューが得られます。このビューから、残差ネットワークには入力と出力を接続するO(2 ^ n)暗黙パスがあり、ブロックを追加するとパスの数が2倍になることは明らかです。 記事の終わりにそれは述べられています: それは深さではなく、残差ネットワークを強くするアンサンブルです。残りのネットワークは、ネットワークの深さではなく、ネットワークの多重度の限界を押し上げます。我々の提案された解明された見解と病変研究は、残余ネットワークが指数関数的に多くのネットワークの潜在的なアンサンブルであることを示しています。勾配に寄与するパスのほとんどがネットワークの全体的な深さに比べて非常に短い場合、深さの増加 だけでは、残余ネットワークの主要な特徴にはなりません。パスの数に関するネットワークの表現可能性である多重度が重要な役割を果たすと私たちは今考えています。 しかし、それは確認または反駁できる最近の理論にすぎません。一部の理論が反駁され、記事が取り下げられることが時々起こります。 結局、深いResNetをアンサンブルと考える必要がありますか?アンサンブルまたは深度により、残存ネットワークが非常に強くなりますか?開発者自身でさえ、自分のモデルが何を表しているのか、そしてその中の主要な概念は何であるかをまったく認識していない可能性はありますか?

4
BERTを文生成タスクに使用できますか?
私はNLPの新しい学習者です。文章生成タスクに興味があります。私に関する限り、最先端の方法の1つは、RNNを使用して一連の単語を生成するCharRNNです。 ただし、BERTは数週間前にリリースされ、非常に強力です。したがって、この作業をBERTの助けを借りて実行できるかどうか疑問に思っています。私はこの分野の新しい学習者です。アドバイスをありがとう!

6
異なる次元の入力画像を含む畳み込みニューラルネットワーク-画像のセグメンテーション
セグメンテーションタスクの入力として異なる次元の画像を使用するという問題に直面しています。画像のアスペクト比は同じではないことに注意してください。 ここでも提案されているように、一般的にディープラーニングで見つけた1つの一般的なアプローチは、画像をトリミングすることです。しかし、私の場合、セグメンテーションでは出力を入力と同じ次元にする必要があるため、画像をトリミングしてその中心または類似のものを維持することはできません。 このペーパーでは、セグメンテーションタスクで、同じ画像をネットワークに複数回フィードできますが、スケールは異なり、結果を集約できることを示しています。このアプローチを正しく理解した場合、すべての入力画像のアスペクト比が同じである場合にのみ機能します。私が間違っていたら訂正してください。 別の代替案は、各画像のサイズを固定サイズに変更することです。これもこの質問への回答で提案されたと思います。ただし、画像のサイズ変更方法は指定されていません。 情報の損失を避けるために、データセットの最大の幅と高さを取り、すべての画像をその固定サイズにサイズ変更することを検討しました。ただし、画像のエッジがはっきりしない場合があるため、画像が歪んでいる場合、ネットワークに問題が発生する可能性があると思います。ネットワークに送る前に画像のサイズを変更する最良の方法は何ですか? 異なる次元の画像を使用する問題を解決するために、私が知らない他のオプションはありますか? また、計算の複雑さだけでなく、ネットワークによってパフォーマンスが低下する可能性を考慮に入れて、これらのアプローチのどれが最善であると思いますか? 私の質問への回答に、もしあればソースへのリンクが含まれていれば幸いです。ありがとうございました。

1
どのような種類のニューラルネットワークが使用されていますか?
次のニューラルネットワークのチートシート(AI、ニューラルネットワーク、機械学習、ディープラーニング、ビッグデータのチートシート)を見つけました。 これらのさまざまな種類のニューラルネットワークは何に使用されますか?たとえば、回帰や分類に使用できるニューラルネットワーク、シーケンスの生成などに使用できるニューラルネットワークはどれですか。アプリケーションの概要(1〜2行)が必要です。

2
AlphaZeroはAGIの例ですか?
arxiv.org に関する DeepMindの研究論文から: このホワイトペーパーでは、AlphaZeroと呼ばれる同様の完全に一般的なアルゴリズムをチェスと将棋およびGoのゲームに適用します。ゲームのルール以外の追加のドメイン知識はありません。これは、汎用の強化学習であることを示しています。アルゴリズムは、多くの挑戦的な領域にわたって、表形式のラサ、超人的なパフォーマンスを達成できます。 これは、AlphaZeroがAGI(Artificial General Intelligence)の例であることを意味しますか?

3
MLがNvidiaのチップが利用可能になった後にのみ実行可能になったのはなぜですか?
中国の有力な2人の科学者、Wang GangとYu Kaiなどからなるパネルによる講演を聞きました。 近い将来(3〜5年)の人工知能の開発の最大のボトルネックについて尋ねられたとき、ハードウェア業界での経験を持つYu Kaiは、ハードウェアが本質的な問題であり、私たちのほとんどに支払うべきであると述べましたそのことに私たちの注意。彼は私たちに2つの例を示しました: コンピューターの初期の開発では、マシンをチップで比較しています。 近年非常に人気のある人工知能は、NvidiaのGPUによって強化されなければ、ほとんど不可能です。 基本的なアルゴリズムはすでに1980年代と1990年代に存在していましたが、人工知能は3冬のAIを通過し、GPUブーストメガサーバーでモデルをトレーニングできるようになるまでは経験的ではありませんでした。 その後、王博士は、世界中のすべてのGPUと計算を組み合わせても自動車を構築できないため、ソフトウェアシステムも開発する必要があるとの意見にコメントしました。 すると、いつものように頭が離れて、​​1980年代と1990年代にスーパーコンピュータを操作できる人が、当時存在していたニューラルネットワークアルゴリズムを利用して、大量の科学データでトレーニングするとしたらどうだろうと考え始めました。当時は明らかに、私たちが現在構築しているAIシステムの構築を試みる人もいます。しかし、なぜAIが話題になり、数十年後まで経験的になったのでしょうか。ハードウェア、ソフトウェア、データの問題だけですか?


6
一般的なAIを開発するのに十分なほど複雑なシミュレーション環境はどのようなものですか?
「一般的なAI」(私は自己認識AIと定義します)を作成するのに十分複雑でありながら、できるだけ単純なシミュレートされた仮想環境を作成しようとしていると想像してください。この最小限の環境はどのようなものでしょうか? すなわち、単なるチェスゲームであった環境は単純すぎるでしょう。チェスプログラムは一般的なAIにはなりません。 複数のエージェントがチェスをプレイし、結果を相互に伝達する環境。これは一般的なAIを構成しますか?(もしあなたが一日中チェスについて考えているチェスのグランドマスターが「一般的なAI」を持っていると言うことができますか?彼の時間の間にチェスについて考えている間、彼はチェスコンピュータとは異なりますか?)。 3Dシムのような世界はどうですか?複雑すぎるようです。結局、なぜ一般的なAIが2Dの世界に存在できないのでしょう。 単純な環境の例は何ですか?AIが自己認識を持つことができるほど単純ではありませんか?

5
AI理論、哲学、ツール、アプリケーションのソース[終了]
閉じた。この質問はより集中する必要があります。現在、回答を受け付けていません。 この質問を改善したいですか?この投稿を編集するだけで1つの問題に焦点を当てるように質問を更新します。 8日前休業。 私は長年ソフトウェア/ハードウェアエンジニアです。しかし、私はAIと機械学習について何も知りません。デジタル信号処理とさまざまなプログラミング言語(C、C ++、Swiftなど)に強いバックグラウンドがあります。 AIの理論と哲学を一から教えて、実際のアプリケーションの例、現在のツール、実行可能な例などを紹介するソース(本やガイドなど)はありますか? だから、私はあまりにも学術的または統計的な情報源を探していません。

1
戦略的計画と多次元ナップザック問題
新しい材料の学習をモデル化しようとする問題を解決するための計画的なアプローチを見つけようとしています。Wikipediaなどのリソースは1つだけであると想定しています。これには、Wikipediaなどの知識のベクトルとして表された記事のリストと、その記事を読むための努力が含まれています。 知識ベクトルと努力 始める前に、さまざまな種類の知識の数に応じて、ベクトルのサイズを設定します。たとえば、ベクター内のアイテムをと定義し、(algebra, geometry, dark ages)この観点からすべての記事を「測定」できます。したがって、数学の記事はおそらく(5,7,0)代数学と幾何学について多くを語るので、おそらく暗黒時代についてではないでしょう。それはそれを読む努力もするでしょう、それは単なる整数です。 問題 すべての記事(努力を伴う知識ベクトルとして表されます)を前提として、知識の目標(ベクトルとしても表される)に到達するのに役立つ記事の最適なセットを見つけたいと思います。 ですから、知識の目標は、することができ(4,4,0)、それが記事を読んで十分だ(2,1,0)と(2,3,0)追加したとき、それは知識のゴールが集計し、以来、。最小限の労力でこれを実現したいと考えています。 質問 近似を見つけるためにいくつかのヒューリスティックを試みましたが、代わりに使用できる最先端の戦略的計画方法があるかどうか疑問に思っていましたか?

3
ラウンドベースのボードゲームのニューラルネットワークをトレーニングする方法
三目並べ、チェス、リスク、その他のラウンドベースのゲームなど、ラウンドベースのボードゲームのニューラルネットワークをトレーニングする方法を知りたいです。推論によって次の動きを取得することは、ゲームの状態を入力としてフィードし、出力を現在のプレーヤーの動きとして使用することで、かなり簡単に思えます。ただし、その目的でAIをトレーニングすることは、それほど単純ではないように見えます。 シングルムーブが良いかどうかは評価がないため、シングルムーブのトレーニングは正しい選択ではないようです。 ゲーム全体のすべてのゲーム状態(入力)と動き(出力)を使用してニューラルネットワークをトレーニングすることは、失われたゲーム内のすべての動きが悪いとは限らないため、適切な選択ではないようです。 それで、ラウンドベースのボードゲームのニューラルネットワークをトレーニングする方法を知りたいですか?tensorflowを使用して、tic-tac-toeのニューラルネットワークを作成したいと考えています。

2
ボトルネック機能とは何ですか?
非常に少ないデータを使用した強力な画像分類モデルの構築に関するブログ投稿では、ボトルネック機能について言及されています。ボトルネック機能とは何ですか?使用するアーキテクチャによって変わりますか?それらは、完全に接続されたレイヤーの前の畳み込みレイヤーの最終出力ですか?なぜそう呼ばれるのですか?

4
チャットボットをトレーニングする最新の方法は何ですか?
テキスト入力を使用し、いくつかのカテゴリを記憶し、それに応じて質問に答えるボットをトレーニングしたいと思います。また、バージョン2.0として、ボットに音声入力にも応答できるようにしたいと考えています。同じで利用できる最新の機械学習/ AIアルゴリズムはどれですか?私にお知らせください。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.