タグ付けされた質問 「machine-learning」

データのパターンを自動的に検出し、カバーされていないパターンを使用して将来のデータを予測したり、不確実性の下で他の種類の意思決定(方法の計画など)を実行したりできる一連の方法である機械学習(ML)に関連する質問より多くのデータを収集するため)。MLは通常、教師あり、教師なし、強化学習に分けられます。深層学習は、深層人工ニューラルネットワークを使用するMLのサブフィールドです。

17
人工知能と機械学習の違いは何ですか?
これら2つの用語は、特にコンピューターサイエンスとソフトウェアエンジニアリングでの応用において、関連しているようです。一方は別のサブセットですか?一方は他方のシステムを構築するために使用されるツールですか?それらの違いは何ですか、なぜ重要なのですか?

8
なぜPythonはAI分野で人気のある言語なのですか?
まず第一に、私はAIを勉強する初心者であり、これは意見志向の質問でも、プログラミング言語を比較する質問でもありません。それが最高の言語だと言っているのではありません。しかし、実際には、有名なAIフレームワークのほとんどはPythonを主にサポートしています。たとえば、Python、C ++、またはC#およびC ++をサポートするMicrosoftのCNTKをサポートするTensorFlowなど、多言語をサポートすることもできますが、最も使用されるのはPythonです(ドキュメント、例、より大きなコミュニティ、サポートなどを意味します)。C#(Microsoftと私の主要なプログラミング言語によって開発された)を選択した場合でも、Python環境をセットアップする必要があります。 私は他のフォーラムで、PythonがAIに好まれていることを読みました。コードが簡素化され、よりクリーンで、高速プロトタイピングに適しているからです。 AIテーマ(Ex_Machina)で映画を見ていました。一部のシーンでは、メインキャラクターがハウスオートメーションのインターフェイスをハッキングします。どの言語が現場にあったと思いますか?Python。 それでは、PythonとAIの関係は何ですか?

3
ニューラルネットワークはさまざまな入力サイズをどのように処理できますか?
私が知る限り、ニューラルネットワークの入力層には一定数のニューロンがあります。 ニューラルネットワークがNLPのようなコンテキストで使用される場合、さまざまなサイズの文章またはテキストブロックがネットワークに供給されます。さまざまな入力サイズは、ネットワークの入力層の固定サイズとどのように調整されますか?言い換えれば、このようなネットワークは、1単語から複数ページのテキストまでの入力を処理するのに十分な柔軟性を備えているのでしょうか? 入力ニューロンの固定数の仮定が間違っていて、新しい入力ニューロンがネットワークに追加/削除されて入力サイズに一致する場合、これらをどのようにトレーニングできるのかわかりません。 NLPの例を挙げますが、多くの問題には本質的に予測不可能な入力サイズがあります。これに対処するための一般的なアプローチに興味があります。 画像の場合、固定サイズにアップ/ダウンサンプリングできることは明らかですが、テキストの場合、テキストを追加/削除すると元の入力の意味が変わるため、これは不可能なアプローチのようです。

4
ニューラルネットワークは壊滅的な忘却の傾向がありますか?
ニューラルネットワークにライオンの写真を100回表示し、「危険」とラベル付けすると、ライオンは危険であることがわかります。 ライオンの危険な可能性が50%になるように、以前に何百万ものライオンの画像を表示し、「危険」および「危険ではない」というラベルを付けたと想像してください。 しかし、最後の100回は、ニューラルネットワークを、ライオンを「危険」と見なす非常に前向きな状態に押しやったため、最後の100万のレッスンは無視されました。 したがって、ニューラルネットワークには、最近の証拠に基づいてあまりにも迅速に考えを変えることができるという欠陥があるようです。特にその前の証拠が中央にあった場合。 どれだけの証拠を見たかを追跡するニューラルネットワークモデルはありますか?(または、これはによって学習率の減少をさせると同等になり試行回数のですか?)1/T1/T1/TTTT

3
LispがAIにとってこんなに良い言語なのはなぜですか?
Lispは人工知能の研究開発に適した言語であるとコンピューター科学者やAIの分野の研究者から聞いたことがあります。ニューラルネットワークとディープラーニングの普及により、これはまだ当てはまりますか?この理由は何ですか?現在の深層学習システムは現在どの言語に組み込まれていますか?


4
LSTMで隠れ層の数とメモリセルの数を選択する方法は?
LSTMベースのRNNの隠れ層の数とこれらのサイズを選択する方法に関する既存の研究を見つけようとしています。 この問題を調査している記事、つまり、1つのメモリセルをいくつ使用する必要があるかという記事はありますか?私はそれが完全にアプリケーションとどのコンテキストでモデルが使用されているかに依存すると仮定しますが、研究は何と言っていますか?


2
ニューラルネットワークを段階的にトレーニングすることは可能ですか?
出力クラスが最初から(すべて)定義されていないニューラルネットワークをトレーニングしたいと思います。着信データに基づいて、より多くのクラスが後で導入されます。つまり、新しいクラスを導入するたびに、NNを再トレーニングする必要があります。 NNを段階的に、つまり以前のトレーニングフェーズで以前に取得した情報を忘れずにトレーニングするにはどうすればよいですか?


4
強化学習で無効な動きを処理する方法は?
5列/五目並べをプレイできるAIを作りたい。タイトルで述べたように、これには強化学習を使用します。 私は、使用ポリシー勾配すなわちベースラインと、補強、方法。値とポリシー関数の近似には、ニューラルネットワークを使用します。畳み込み層と完全に接続された層があります。出力を除くすべてのレイヤーが共有されます。ポリシーの出力層には、(ボードのサイズ)出力ユニットとsoftmaxがあります。したがって、確率的です。しかし、ネットワークが無効な移動の可能性が非常に高い場合はどうでしょうか?無効な移動とは、エージェントが1つの「X」または「O」を含む正方形をチェックしたい場合です。私はそれがそのゲーム状態で立ち往生できると思います。8 × 8 = 648×8=648 \times 8=64 この問題の解決策をお勧めしますか? 私の推測では、俳優と批評家の方法を使用することです。無効な動きについては、負の報酬を与え、相手にターンを渡す必要があります。

7
デジタル値が単なる推定値である場合、AIのアナログに戻ってみませんか?
20世紀のアナログ回路からデジタル回路への移行の背後にある推進力は、より高い精度とより低いノイズへの欲求によるものです。現在、結果が近似でノイズが正の値であるソフトウェアを開発しています。 人工ネットワークでは、勾配(ヤコビアン)または2次モデル(ヘッシアン)を使用して、収束アルゴリズムの次のステップを推定し、許容範囲の不正確さと疑念を定義します。1 収束戦略では、ランダムまたは擬似ランダム摂動を注入して意図的にノイズを追加し、本質的に収束中に最適化表面の極小値を飛び出すことで信頼性を向上させます。2 現在のAIシステムに受け入れられ、意図的に導入されているのは、電子機器をデジタル回路に動かしたのと同じことです。 ニューラルネットのアナログ回路に戻り、デジタル信号処理要素のマトリックスではなく、オペアンプマトリックスを使用して実装しませんか? 人工ネットワーク学習パラメーターの値は、D-Aコンバーターを介して充電された統合コンデンサーを使用して維持できるため、学習状態はデジタル精度と利便性の恩恵を受け、順伝播はアナログの利点を享受できます。 より速い速度 3 ネットワークセルを表すトランジスタの桁数が少ない 自然な熱雑音4 アナログ人工ネットワークの学術論文または特許検索により、過去40年間に多くの仕事が明らかになり、研究傾向は維持されています。計算アナログ回路は十分に開発されており、ニューラルアレイの基礎を提供します。 デジタル計算に対する現在の強迫観念は、AIアーキテクチャオプションの一般的な見解を曇らせているでしょうか? ハイブリッドアナログは人工ネットワークの優れたアーキテクチャですか? 脚注 [1] PAC(おそらくほぼ正しい)学習フレームワークは、許容誤差ϵϵ\epsilonおよび許容誤差δδ\deltaを特定のモデルタイプの学習に必要なサンプルサイズに関連付けます。(1 − ϵ1−ϵ1 - \epsilonは精度を表し、1 - δ1−δ1 - \deltaはこのフレームワークの信頼。) [2]適切な戦略とハイパーパラメーターを使用すると、学習中により迅速に収束する確率的勾配降下が示され、人工ネットワークの典型的な実世界のアプリケーションでのベストプラクティスになりつつあります。 [3] Intel Core i9-7960Xプロセッサーは4.2 GHzのターボ速度で動作しますが、標準の固定衛星放送は41 GHzです。 [4]アバランシェ点で逆バイアスされたツェナーダイオードの電子リークを増幅およびフィルタリングすることにより、シリコンで熱ノイズを得ることができます。量子現象の原因は、ジョンソンナイキスト熱雑音です。サンギネッティら 等 「携帯電話での量子乱数生成」(2014)の状態、「検出器は、伝送確率ηの損失チャネルとしてモデル化でき、その後に単位効率の光子電子変換器が続きます...分布が測定されます量子不確実性と技術的ノイズの組み合わせである」とCalTechのJTWPAの成果があります。これらは両方とも、集積回路で真に非決定的な量子ノイズを生成するための標準になる可能性があります。 参照資料 畳み込みスパイクニューラルネットワークによる画像パッチのSTDP学習、Saunders et。al。2018、U MassおよびHAS 限定精度アナログ計算による汎用コード高速化、Amant et。ほか、2014 アナログコンピューティングと生物学的シミュレーションは、2016年Devin Coldeweyの新しいMITコンパイラから後押しされます Larry Hardestyによるアナログコンピューティングのリターン、2016年* なぜアナログ計算なのか?、NSA機密解除文書 アナログコンピューティングに戻る:コロンビアの研究者は、アナログコンピューティングとデジタルコンピューティングを1つのチップに統合します(コロンビア大学、2016年) リコンフィギャラブルコンピューティング用のフィールドプログラマブルクロスバーアレイ(FPCA)、Zidan et。al。、IEEE、2017 FPAA / …

3
GAN損失関数を理解する
私は、Generative Adversarial Networksの理解(Daniel Seitaによるブログ投稿)で提供されているGAN損失関数の理解に苦労しています。 標準的なクロスエントロピー損失では、シグモイド関数を介して実行された出力と、結果のバイナリ分類があります。 シータ州 バツ1バツ1x_1 H((x1、y1)、D )= − y1ログD (x1)− (1 − y1)ログ(1 − D (x1))H((バツ1、y1)、D)=−y1ログ⁡D(バツ1)−(1−y1)ログ⁡(1−D(バツ1)) H((x_1, y_1), D) = -y_1 \log D(x_1) - (1 - y_1) \log (1 - D(x_1)) これは単なる期待のログであり、理にかなっていますが、GAN損失関数で、同じ反復で真の分布からのデータと生成モデルからのデータをどのように処理できますか?

1
バックプロパゲーション手法の違い
楽しみのためだけに、ニューラルネットワークを開発しようとしています。 さて、逆伝播のために2つのテクニックを見ました。 最初のものは、ここと他の多くの場所でも使用されています。 それは何ですか: 各出力ニューロンのエラーを計算します。 それをネットワークに逆伝播します(各内部ニューロンのエラーを計算します)。 次の式で重みを更新します(ここで、重みの変化、学習速度、シナプスから入力を受信し、シナプスで送信される出力であるニューロンのエラー)。 データセットの各エントリに対して、必要な回数だけ繰り返します。 ただし、このチュートリアルで提案されているニューラルネットワーク(GitHubでも入手可能)は、異なる手法を使用しています。 エラー関数を使用します(他の方法にはエラー関数がありますが、トレーニングには使用しません)。 重みから開始して最終エラーを計算できる別の関数があります。 (勾配降下による)その関数を最小化します。 さて、どのメソッドを使用する必要がありますか? 最初の1つが最も使用されていると思います(それを使用して別の例を見ていたため) 特に、私は知りません: (二次関数を使用していないため)局所的最小値の影響を受けにくいですか? 各重みの変動はその出力ニューロンの出力値の影響を受けるため、データセットのエントリは、出力ニューロンだけでなくニューロンでより高い値を生成するだけで、他のエントリよりも重みに影響しませんか? 今、私は最初の手法を好むのです。なぜなら、実装がより簡単になり、考えやすくなるからです。 しかし、もしそれが私が言及した問題を持っているなら(そうしないことを望みます)、2番目の方法でそれを使用する実際の理由はありますか?


弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.