タグ付けされた質問 「neural-network」

人工ニューラルネットワーク(ANN)は、「ニューロン」(生物学的ニューロンの特性を模倣するプログラミング構造)で構成されています。ニューロン間の一連の重み付けされた接続により、ネットワーク設計者が実際のシステムのモデルを持たなくても、情報がネットワークを介して伝播し、人工知能の問題を解決できます。

3
科学計算に最適な言語[終了]
閉じた。この質問はより集中する必要があります。現在、回答を受け付けていません。 この質問を改善したいですか?この投稿を編集するだけで1つの問題に焦点を当てるように質問を更新します。 5年前に閉鎖されました。 ほとんどの言語では、いくつかの科学計算ライブラリが利用できるようです。 Pythonは Scipy Rust 持っている SciRust C++持っているなど、いくつかのViennaCLとArmadillo Java持っているJava NumericsとColtだけでなく、他のいくつかの 以下のような言語は言うまでもありませんRし、Julia科学技術計算のために明示的に設計されています。 非常に多くのオプションを使用して、タスクに最適な言語をどのように選択しますか?さらに、どの言語が最もパフォーマンスが高くなりますか?PythonそしてR宇宙の中で最も牽引力を持っているように見えるが、それは、より良い選択となるように、論理的にコンパイルされた言語がそうです。そして、これまでに何よりも優れているFortranでしょうか?さらに、コンパイルされた言語はGPUアクセラレーションを備えている傾向がありますが、インタープリター言語はそうではRありPythonません。言語を選択するときは何を考慮すればよいですか。また、ユーティリティとパフォーマンスのバランスが最も良い言語はどれですか。また、私が見逃した重要な科学計算リソースを持つ言語はありますか?
10 efficiency  statistics  tools  knowledge-base  machine-learning  neural-network  deep-learning  optimization  hyperparameter  machine-learning  time-series  categorical-data  logistic-regression  python  visualization  bigdata  efficiency  classification  binary  svm  random-forest  logistic-regression  data-mining  sql  experiments  bigdata  efficiency  performance  scalability  distributed  bigdata  nlp  statistics  education  knowledge-base  definitions  machine-learning  recommender-system  evaluation  efficiency  algorithms  parameter  efficiency  scalability  sql  statistics  visualization  knowledge-base  education  machine-learning  r  python  r  text-mining  sentiment-analysis  machine-learning  machine-learning  python  neural-network  statistics  reference-request  machine-learning  data-mining  python  classification  data-mining  bigdata  usecase  apache-hadoop  map-reduce  aws  education  feature-selection  machine-learning  machine-learning  sports  data-formats  hierarchical-data-format  bigdata  apache-hadoop  bigdata  apache-hadoop  python  visualization  knowledge-base  classification  confusion-matrix  accuracy  bigdata  apache-hadoop  bigdata  efficiency  apache-hadoop  distributed  machine-translation  nlp  metadata  data-cleaning  text-mining  python  pandas  machine-learning  python  pandas  scikit-learn  bigdata  machine-learning  databases  clustering  data-mining  recommender-system 

1
ジェスチャー認識システムでのRNN(LSTM)の使用
私はASL(アメリカ手話)ジェスチャーを分類するためのジェスチャー認識システムを構築しようとしているので、入力はカメラまたはビデオファイルからの一連のフレームであると想定されており、シーケンスを検出して対応するものにマッピングしますクラス(睡眠、助け、食べる、走るなど) 問題は、私がすでに同様のシステムを構築したことですが、静止画像(モーションは含まれません)の場合、手があまり動かず、CNNの構築が単純なタスクであるアルファベットの翻訳にのみ役立ちました。データセットの構造も私がケラスを使用していて、おそらくそうするつもりだったので管理可能でした(すべてのフォルダーには特定の標識の画像のセットが含まれており、フォルダーの名前はこの標識のクラス名です:A、B、C 、..) ここでの私の質問、データセットを整理してケラのRNNに入力できるようにするにはどうすればよいですか?モデルと必要なパラメーターを効果的にトレーニングするためにどの特定の関数を使用すればよいですか?TimeDistributedクラスの使用を提案した人もいますが私の好みに合わせてそれを使用する方法について明確なアイデアを持ち、ネットワーク内のすべてのレイヤーの入力形状を考慮に入れます。 また、私のデータセットが画像で構成されることを考えると、たぶん畳み込み層が必要になるでしょう。どのようにしてconv層をLSTM層に組み合わせることが実現可能でしょうか(つまり、コードの観点から)。 たとえば、私は私のデータセットがこのようなものであると想像します 「Run」という名前のフォルダーには3つのフォルダー1、2、3が含まれ、各フォルダーはシーケンスのフレームに対応しています だからRUN_1は、最初のフレームの画像のいくつかのセットが含まれます、RUN_2は、 2フレーム目のためにRun_3第三のために、私のモデルの目的は、単語を出力する。このシーケンスで訓練されるファイル名を指定して実行。

2
死んだReluニューロンを確認する方法
背景:ニューラルネットワークをreluアクティベーションでフィッティングしているときに、予測がほぼ一定になることがあります。これは、ここで述べたように、トレーニング中にreluニューロンが死んでしまったためだと思います。(ニューラルネットワークの「死にかけているReLU」問題とは?) 質問:ニューロンが死んでいるかどうかをチェックするために、コード自体にチェックを実装することを望んでいます。その後、必要に応じて、コードをネットワークに適合させることができます。 このように、死んだニューロンをチェックするのに適した基準は何ですか?現在、予測としてのばらつきが少ないかどうかを市町村として確認することを考えています。 それが役立つ場合は、ケラスを使用しています。

3
任意の数の入力と出力を備えた人工ニューロンネットワーク(ANN)
問題にANNを使用したいのですが、問題は入力と出力のノード番号が固定されていないことです。 私は質問をする前にグーグル検索をしましたが、RNNが私の問題を解決するのに役立つことがわかりました。しかし、私が見つけたすべての例は、どういうわけか、入力ノードと出力ノードの数を定義しています。 それで、私は戦略、それをどのように現実のものにするか、または少なくともいくつかの例を探しています。KerasまたはPyTorchで望ましいです。 私の問題の詳細: 2つの入力リストがあります。最初のリストの長さは固定され、2に等しくなります。fe: in_1 = [2,2] ただし、2番目のリストの長さは柔軟で、長さは3からinf、feまで可能です。 in_2 = [1,1,2,2] または in_2 = [1,1,1,2,2,2,3,3,3] また、入力リストは互いに依存しています。最初のリストは、出力リストの次元を示しています。したがって、in_1 = [2,2]の場合、出力は[2,2]形式に再形成される可能性がある必要があることを意味します。 現在、2つの入力リストを1つに結合することを考えています。 in = in_1 + in_2 = [2, 2, 1, 1, 2, 2] さらに、出力の長さはin_2リストと同じです。fi: 入力リストが次の場合: in_1 = [2, 2] in_2 = [1, 1, 2, 2] 出力は次のようになります。 out = [1, 2, 1, …

3
脳波データの再発(CNN)モデル
私は、EEGコンテキストでリカレントアーキテクチャを解釈する方法を知りたいです。具体的には、これを(LSTMのようなアーキテクチャーとは対照的に)再帰CNNと考えていますが、他のタイプの再帰ネットワークにも適用される可能性があります R-CNNについて読んだとき、それらは通常、画像分類のコンテキストで説明されています。それらは通常、「時間をかけて学習する」または「現在の入力に対するtime-1の影響を含む」と表現されます。 この解釈/説明は、EEGデータを扱うときに本当に混乱します。脳波データで使用されているR-CNNの例はここにあります それぞれが1x512アレイで構成されるトレーニング例があるとします。このアレイは、512の連続した時点で1つの電極の電圧測定値を取得します。これを(1D畳み込みを使用して)再発CNNへの入力として使用すると、モデルの再発部分が実際に「時間」をキャプチャしていませんよね?(前述の説明/説明によって暗示されるように)このコンテキストでは、時間はすでにアレイの2番目の次元によってキャプチャされているため このように設定すると、ネットワークの繰り返し部分によって、通常のCNNが(時間でない場合でも)できないことを実際にモデル化できるようになりますか? 再発とは、たたみ込みを実行し、その結果を元の入力に追加し、再度たたみ込みを行うことを意味するだけのようです。これはx回の反復ステップで繰り返されます。このプロセスは実際にどのような利点をもたらしますか?

1
Kerasを使用したディープラーニングのためのデータの再形成
私はケラスの初心者であり、ライブラリが実際にどのように機能するかを理解するためにMNISTの例から始めました。Kerasサンプルフォルダー内のMNIST問題のコードスニペットは次のようになります。 import numpy as np np.random.seed(1337) # for reproducibility from keras.datasets import mnist from keras.models import Sequential from keras.layers import Dense, Dropout, Activation, Flatten from keras.layers import Convolution2D, MaxPooling2D from keras.utils import np_utils batch_size = 128 nb_classes = 10 nb_epoch = 12 # input image dimensions img_rows, img_cols = 28, …

2
問題のスペースが大きすぎる場合、AIはどのように行動することを学びますか
私は実験と例を通して最もよく学びます。私はニューラルネットワークについて学んでいて、分類と回帰についてかなりよく理解していて、教師ありと教師なしの学習もしていますが、静かに理解できないものに遭遇しました。 AIをトレーニングして複雑なゲームをプレイしたい場合は、RTSのようなものを考えています(Age of Empires、Empire Earthなど)。これらのタイプのゲームでは、通常、プレーヤーによって制御される多数のエンティティ(ユニット、建物)があり、それぞれに異なる機能があります。AIが分類することの問題のように思われます(たとえば、そのユニットとそのアクションを選択します)。ただし、ユニットの数は変数であるため、このように分類の問題をどのように処理しますか? 私が考えることができる唯一のことは、さまざまな段階を実行する複数のネットワークです(全体的な戦略、このタイプのユニットの制御、そのタイプの建物など)。しかし、これは私が問題を複雑にしているようです。 複雑なゲーム(具体的にはRTSではなく、より複雑なマリオ)を学習する機械学習/ニューラルネットワークの良い例はありますか?

1
テキスト分類問題:Word2Vec / NNは最善のアプローチですか?
私は、テキストの段落が与えられれば、それを分類してコンテキストを特定できるシステムを設計しようと考えています。 ユーザーが作成したテキスト段落(コメント/質問/回答など)でトレーニングされている トレーニングセットの各アイテムには、のタグが付けられます。したがって、たとえば( "category 1"、、 "text段落") 何百ものカテゴリがあります そのようなシステムを構築するための最良のアプローチは何でしょうか?私はいくつかの異なるオプションを見てきましたが、以下は可能な解決策のリストです。Word2Vec / NNは現時点で最良のソリューションですか? 平均化されたWord2Vecデータが供給された再帰型ニューラルテンソルネットワーク RNTNとパラグラフベクトル(https://cs.stanford.edu/~quocle/paragraph_vector.pdf)? Deep Belief Networkで使用されるTF-IDF TF-IDFとロジスティック回帰 Bag of WordsとNaive Bayes分類

1
AutoEncodersの変換
オートエンコーダの変換に関するGeoff Hintonの論文を読んだところです Hinton、Krizhevsky、Wang:Transforming Auto- encoders 。人工ニューラルネットワークと機械学習、2011年。 そして、このようなもので遊んでみたいと思います。しかし、それを読んでも、実際にそれを実装する方法についての紙から十分な詳細を得ることができませんでした。 入力ピクセルとカプセルのマッピングがどのように機能するかを知っている人はいますか? 認識ユニットで正確に何が起こっているべきですか? どのように訓練する必要がありますか?すべての接続間の標準のバックプロップですか? さらに良いのは、これまたは同様の何かのソースコードへのリンクです。

5
LSTMまたはR用の他のRNNパッケージ
シェイクスピアのようなテキストを生成するLSTMモデルからの印象的な結果を見ました。LSTMパッケージがRに存在するかどうか疑問に思っていました。Googleでググってみましたが、PythonとJuliaのパッケージしか見つかりませんでした。(おそらく、これらのプログラムがRよりも優先される理由を説明するパフォーマンスの問題があるかもしれません)RのLSTM(または少なくともRNN)パッケージについて知っていますか?存在する場合、それらを使用するためのチュートリアルはありますか?
10 r  neural-network  rnn 

2
ニューラルネットワークを使用した外国為替市場の予測
ANNを使用して取引通貨を自動化したいと思います。できればUSD / EURまたはUSD / GBPです。これは難しく、簡単ではないかもしれません。私はすでにいくつかの論文を読み、いくつかの実験を行いましたが、あまり運がありませんでした。これを機能させるためにエキスパートからアドバイスをもらいたいのですが。 これが私がこれまでに行ったことです: 2013年7月のティックデータでティックを取得しました。ビッド/アスク/ビッドボリューム/アスクボリュームがあります。 すべての日の12PMから14PMまでの時間枠のすべてのティックを抽出しました。 このデータから、各エントリが順番にn個の入札値で構成されるデータセットを作成しました。 そのデータを使用して、n-1個の入力でANNをトレーニングし、出力は予測されるn番目の入札値です。 ANNには、n-1個の入力ニューロン、(n-1)* 2 + 1個の非表示ニューロン、および1個の出力ニューロンがありました。入力層には線形TF、非表示には対数TF、出力には線形TFがありました。 最初にn-125、次に10のバックプロパゲーションでネットワークをトレーニングしました。 両方のnについて、MSEは0.5を下回ることはなく、完全なトレーニング中にその値のままでした。これは時系列が完全にランダムであることが原因である可能性があると想定して、Rパッケージを使用してデータセット(pacf)の部分的な自己相関を検出しました。これにより、2ラグと3ラグに対してのみゼロ以外の値が得られました。 質問1:これは正確にはどういう意味ですか? 次に、ハースト指数を使用してランダム性を評価しました。Rでは、hurst(values)が0.9を超える値を示しました。 質問2:ほぼランダムであると想定されています。0.5に近い値にする必要がありますか? ANNのトレーニングをn = 3で繰り返しました。ANNは訓練を受け、MSEのかなり低い値を取得することができました。ただし、このANNから計算された出力は、(n-1)番目の入札値と大差ありません。ANNは最後の入札を次の入札と見なしているようです!さまざまなネットワーク構造(すべての多層知覚)、さまざまなトレーニングパラメーターなどを試しましたが、結果は同じです。 質問3:精度を向上させるにはどうすればよいですか?バックプロパゲーション以外のトレーニング方法はありますか?

4
ガス消費異常値の検出-ニューラルネットワークプロジェクト。悪い結果
いくつかのオランダの建物のエネルギーガス消費量の異常値を検出して、ニューラルネットワークモデルを構築しようとしました。結果は非常に悪いですが、理由がわかりません。 私は専門家ではないので、改善できる点と間違っている点をお伺いします。これは完全な説明です:https : //github.com/denadai2/Gas-consumption-outliers。 ニューラルネットワークは、バックプロパゲーションを備えたFeedFowardネットワークです。ここで説明するように、データセットを41'000行、9つのフィーチャの「小さな」データセットに分割し、さらにフィーチャを追加しようとしました。 ネットワークをトレーニングしましたが、結果は14.14 RMSEであるため、ガス消費量を予測できず、連続して優れた異常値検出メカニズムを実行できません。一部の論文では、電力の毎日または毎時の消費を予測しても、MSE = 0.01のようなエラーがあることがわかります。 何を改善できますか?何が悪いのですか?私の説明を見ていただけますか?

3
検証の損失または精度の早期停止?
私は現在ニューラルネットワークをトレーニングしていますが、早期停止基準を実装するためにどちらを使用するかを決定できません:検証の損失、または精度/ f1score / auc /検証セットで計算されたものなどのメトリック。 私の研究では、両方の立場を擁護する記事に出くわしました。Kerasはデフォルトで検証の損失に思われますが、私は反対のアプローチ(例:ここ)についても説得力のある答えに出くわしました。 誰でも、検証ロスを使用するタイミングと特定のメトリックを使用するタイミングについて指示がありますか?

2
Convolutional1D、Convolutional2D、およびConvolutional3Dの違いは何ですか?
私はたたみ込みニューラルネットワークについて学んでいます。Keras例を見ると、3つの異なる畳み込み方法に出くわしました。つまり、1D、2D、3Dです。これらの3つのレイヤーの違いは何ですか?それらのユースケースは何ですか?使用例を示すリンクまたは参照はありますか?

2
word2vecの特徴マトリックスは何ですか?
私はニューラルネットワークの初心者で、現在はword2vecモデルを探索しています。しかし、機能マトリックスが正確に何であるかを理解するのに苦労しています。 最初の行列が特定の単語のワンホットエンコーディングベクトルであることは理解できますが、2番目の行列は何を意味していますか?より具体的には、これらの各値(つまり、17、24、1など)はどういう意味ですか?

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.