タグ付けされた質問 「keras」

Kerasは、Pythonで書かれたミニマリストで高度にモジュール化されたニューラルネットワークライブラリです。

2
GPUでトレーニングに時間がかかるのはなぜですか?
詳細: GPU:GTX 1080 トレーニング:10のクラスに属する約110万の画像 検証:10クラスに属する約150の画像 エポックごとの時間:〜10時間 CUDA、cuDNN、Tensorflow(Tensorflow GPUも)をセットアップしました。 私のモデルはエポックごとに10時間かかるほど複雑ではないと思います。私のGPUに問題があるかどうかも確認しましたが、問題はありませんでした。 完全に接続されたレイヤーによるトレーニング時間ですか? 私のモデル: model = Sequential() model.add() model.add(Conv2D(64, (3, 3), padding="same", strides=2)) model.add(Activation('relu')) model.add(Dropout(0.25)) model.add(Conv2D(64, (3, 3), padding="same", strides=2)) model.add(Activation('relu')) model.add(Dropout(0.25)) model.add(Conv2D(32, (3, 3))) model.add(Activation('relu')) model.add(MaxPooling2D(pool_size=(3, 3), strides=2)) model.add(Flatten()) model.add(Dense(256)) model.add(Activation('relu')) model.add(Dense(4096)) model.add(Activation('relu')) model.add(Dense(10)) model.add(Activation('softmax')) model.summary() opt = keras.optimizers.rmsprop(lr=0.0001, decay=1e-6) model.compile(loss='categorical_crossentropy', optimizer=opt, …

1
KerasをマルチマシンマルチコアCPUシステムで実行する
KerasのLSTMを使用して(Theanoバックグラウンドを使用して)Seq2Seqモデルに取り組んでいます。数MBのデータでもトレーニングに数時間かかるため、プロセスを並列化したいと考えています。 GPUはCPUよりも並列化がはるかに優れていることは明らかです。現時点では、使用できるのはCPUだけです。16 CPUにアクセスできました(コアあたり2スレッドXソケットあたり4コアX 2ソケット) Theanoのマルチコアサポートのドキュメントから、1つのソケットの4つのコアすべてを使用することができました。したがって、基本的にCPUの使用率は400%で4CPUが使用され、残りの12 CPUは未使用のままです。どうすればそれらも活用できますか。Tensorflowが機能する場合は、Theano背景の代わりに使用することもできます。

2
死んだReluニューロンを確認する方法
背景:ニューラルネットワークをreluアクティベーションでフィッティングしているときに、予測がほぼ一定になることがあります。これは、ここで述べたように、トレーニング中にreluニューロンが死んでしまったためだと思います。(ニューラルネットワークの「死にかけているReLU」問題とは?) 質問:ニューロンが死んでいるかどうかをチェックするために、コード自体にチェックを実装することを望んでいます。その後、必要に応じて、コードをネットワークに適合させることができます。 このように、死んだニューロンをチェックするのに適した基準は何ですか?現在、予測としてのばらつきが少ないかどうかを市町村として確認することを考えています。 それが役立つ場合は、ケラスを使用しています。

3
任意の数の入力と出力を備えた人工ニューロンネットワーク(ANN)
問題にANNを使用したいのですが、問題は入力と出力のノード番号が固定されていないことです。 私は質問をする前にグーグル検索をしましたが、RNNが私の問題を解決するのに役立つことがわかりました。しかし、私が見つけたすべての例は、どういうわけか、入力ノードと出力ノードの数を定義しています。 それで、私は戦略、それをどのように現実のものにするか、または少なくともいくつかの例を探しています。KerasまたはPyTorchで望ましいです。 私の問題の詳細: 2つの入力リストがあります。最初のリストの長さは固定され、2に等しくなります。fe: in_1 = [2,2] ただし、2番目のリストの長さは柔軟で、長さは3からinf、feまで可能です。 in_2 = [1,1,2,2] または in_2 = [1,1,1,2,2,2,3,3,3] また、入力リストは互いに依存しています。最初のリストは、出力リストの次元を示しています。したがって、in_1 = [2,2]の場合、出力は[2,2]形式に再形成される可能性がある必要があることを意味します。 現在、2つの入力リストを1つに結合することを考えています。 in = in_1 + in_2 = [2, 2, 1, 1, 2, 2] さらに、出力の長さはin_2リストと同じです。fi: 入力リストが次の場合: in_1 = [2, 2] in_2 = [1, 1, 2, 2] 出力は次のようになります。 out = [1, 2, 1, …

1
Kerasを使用したディープラーニングのためのデータの再形成
私はケラスの初心者であり、ライブラリが実際にどのように機能するかを理解するためにMNISTの例から始めました。Kerasサンプルフォルダー内のMNIST問題のコードスニペットは次のようになります。 import numpy as np np.random.seed(1337) # for reproducibility from keras.datasets import mnist from keras.models import Sequential from keras.layers import Dense, Dropout, Activation, Flatten from keras.layers import Convolution2D, MaxPooling2D from keras.utils import np_utils batch_size = 128 nb_classes = 10 nb_epoch = 12 # input image dimensions img_rows, img_cols = 28, …

1
Kerasでモデルをマージすることの意味は何ですか?
Kerasには次のように2つのモデルを「マージ」する機能があることを知りました。 from keras.layers import Merge left_branch = Sequential() left_branch.add(Dense(32, input_dim=784)) right_branch = Sequential() right_branch.add(Dense(32, input_dim=784)) merged = Merge([left_branch, right_branch], mode='concat') mergint NNのポイントは何ですか?どのような状況で役立ちますか?一種のアンサンブルモデリングですか?パフォーマンスの意味でのいくつかの「モード」(連結、平均、ドットなど...)の違いは何ですか?
10 keras 

3
24,000カテゴリのクラスをエンコードする方法は?
私は現在、ゲノミクスのロジスティック回帰モデルに取り組んでいます。共変量として含めたい入力フィールドの1つはgenesです。既知の遺伝子は約24,000あります。計算生物学にはこのレベルの変動性を持つ多くの機能があり、数十万のサンプルが必要です。 もしLabelEncoder()24K遺伝子なら そしてOneHotEncoder()それら... 24,000列は、2.2 GHzクアッドコアi7 CPUに対してケラスのトレーニング時間を無理にするのでしょうか? もしそうなら、私がこれで取ることができるエンコーディングへの異なるアプローチはありますか? どういうわけか、モデルのレイヤーをこの機能専用にする必要がありますか? これは、24Kの入力ノードが必要であることを意味しますか?

2
Convolutional1D、Convolutional2D、およびConvolutional3Dの違いは何ですか?
私はたたみ込みニューラルネットワークについて学んでいます。Keras例を見ると、3つの異なる畳み込み方法に出くわしました。つまり、1D、2D、3Dです。これらの3つのレイヤーの違いは何ですか?それらのユースケースは何ですか?使用例を示すリンクまたは参照はありますか?


3
数学の畳み込みとCNNの関係
畳み込みの説明を読んである程度理解しました。誰かがこの操作がたたみ込みニューラルネットのたたみ込みにどのように関連しているかを理解するのを手伝ってくれませんか?gウェイトをかけるフィルターのような機能ですか?
10 machine-learning  neural-network  deep-learning  cnn  convolution  machine-learning  ensemble-modeling  machine-learning  classification  data-mining  clustering  machine-learning  feature-selection  convnet  pandas  graphs  ipython  machine-learning  apache-spark  multiclass-classification  naive-bayes-classifier  multilabel-classification  machine-learning  data-mining  dataset  data-cleaning  data  machine-learning  data-mining  statistics  correlation  machine-learning  data-mining  dataset  data-cleaning  data  beginner  career  python  r  visualization  machine-learning  data-mining  nlp  stanford-nlp  dataset  linear-regression  time-series  correlation  anomaly-detection  ensemble-modeling  data-mining  machine-learning  python  data-mining  recommender-system  machine-learning  cross-validation  model-selection  scoring  prediction  sequential-pattern-mining  categorical-data  python  tensorflow  image-recognition  statistics  machine-learning  data-mining  predictive-modeling  data-cleaning  preprocessing  classification  deep-learning  tensorflow  machine-learning  algorithms  data  keras  categorical-data  reference-request  loss-function  classification  logistic-regression  apache-spark  prediction  naive-bayes-classifier  beginner  nlp  word2vec  vector-space-models  scikit-learn  decision-trees  data  programming 

1
Kerasモデルが背景を認識することを学ぶのはなぜですか?
私はPascal VOC2012でこのDeeplabv3 +のKeras実装をトレーニングするために、事前トレーニング済みのモデル(そのデータセットでもトレーニング済み)を使用してトレーニングしています。 精度がすぐに1.0に収束する奇妙な結果が得られました。 5/5 [==============================] - 182s 36s/step - loss: 26864.4418 - acc: 0.7669 - val_loss: 19385.8555 - val_acc: 0.4818 Epoch 2/3 5/5 [==============================] - 77s 15s/step - loss: 42117.3555 - acc: 0.9815 - val_loss: 69088.5469 - val_acc: 0.9948 Epoch 3/3 5/5 [==============================] - 78s 16s/step - loss: 45300.6992 …

1
kerasのModelCheckpointが機能しない
私はケラスでモデルをトレーニングしようとしており、ModelCheckpointを使用して、監視された検証メトリック(私の場合はJaccardインデックス)に従って最適なモデルを保存しています。 テンソルボードでモデルが改善されているのを確認できますが、重みをロードしてモデルを評価しようとすると、まったく機能しません。さらに、重みが格納されるはずのファイルのタイムスタンプから、重みがまったく保存されていないことがわかります。タイムスタンプは、トレーニングを開始した時刻にほぼ対応しています。 誰かが以前にそのような問題に遭遇したことがありますか?
8 keras  convnet 



1
時系列はシーケンスからシーケンスへの問題をマルチステップで予測していますか?
数値(float)型の単変量時系列のLSTMをトレーニングするために、kerasパッケージを使用しています。1ステップ先の予測を実行するのは簡単ですが、たとえば、10ステップ先の予測を実行する方法がわかりません。2つの質問: 1)シーケンスツーシーケンスNNについて読みましたが、時系列予測のコンテキストではほとんど何も見つかりません。事前に複数のタイムステップを予測することはseq2seqの問題であるという仮定で正しいのでしょうか。それぞれの予測は前任者に依存しているので、それは私には理にかなっています。 2)seq2seqを使用しない直感的なソリューションは、1ステップ先の予測を実行してから、この予測をシリーズに追加し、それを使用して次の予測を取得します。これはseq2seqアプローチとどのように異なりますか?

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.