タグ付けされた質問 「keras」

Kerasは、PythonおよびRで高レベルのAPIを提供するニューラルネットワークライブラリです。このAPIの使用方法に関する質問には、このタグを使用してください。使用している言語/バックエンドのタグ([python]、[r]、[tensorflow]、[theano]、[cntk])も含めてください。tensorflowの組み込みのkerasを使用している場合は、[tf.keras]タグを使用します。

7
Tensorflowバックエンドを使用するKerasは、CPUまたはGPUを自由に使用するように強制できますか?
TensorflowバックエンドとCUDAでKerasをインストールしました。ときどきオンデマンドでKerasにCPUの使用を強制したいのですが。これは、仮想環境に別のCPUのみのTensorflowをインストールすることなく実行できますか?もしそうなら?バックエンドがTheanoの場合、フラグを設定できますが、Kerasを介してアクセス可能なTensorflowフラグについては聞いたことがありません。

5
モデルの検証中のKerasでのverboseの使用は何ですか?
LSTMモデルを初めて実行しています。これが私のモデルです: opt = Adam(0.002) inp = Input(...) print(inp) x = Embedding(....)(inp) x = LSTM(...)(x) x = BatchNormalization()(x) pred = Dense(5,activation='softmax')(x) model = Model(inp,pred) model.compile(....) idx = np.random.permutation(X_train.shape[0]) model.fit(X_train[idx], y_train[idx], nb_epoch=1, batch_size=128, verbose=1) モデルのトレーニング中の詳細の使用は何ですか?

5
KerasのHDF5ファイルからモデルをロードする方法は?
KerasのHDF5ファイルからモデルをロードする方法は? 私が試したこと: model = Sequential() model.add(Dense(64, input_dim=14, init='uniform')) model.add(LeakyReLU(alpha=0.3)) model.add(BatchNormalization(epsilon=1e-06, mode=0, momentum=0.9, weights=None)) model.add(Dropout(0.5)) model.add(Dense(64, init='uniform')) model.add(LeakyReLU(alpha=0.3)) model.add(BatchNormalization(epsilon=1e-06, mode=0, momentum=0.9, weights=None)) model.add(Dropout(0.5)) model.add(Dense(2, init='uniform')) model.add(Activation('softmax')) sgd = SGD(lr=0.1, decay=1e-6, momentum=0.9, nesterov=True) model.compile(loss='binary_crossentropy', optimizer=sgd) checkpointer = ModelCheckpoint(filepath="/weights.hdf5", verbose=1, save_best_only=True) model.fit(X_train, y_train, nb_epoch=20, batch_size=16, show_accuracy=True, validation_split=0.2, verbose = 2, callbacks=[checkpointer]) 上記のコードは、最適なモデルをweights.hdf5という名前のファイルに正常に保存します。次に、そのモデルをロードします。以下のコードは、私がそうしようとした方法を示しています。 model2 …

3
ケラで2つのレイヤーを連結する方法は?
2つのレイヤーを持つニューラルネットワークの例があります。最初のレイヤーは2つの引数を取り、1つの出力を持ちます。2番目は、最初のレイヤーの結果として1つの引数と1つの追加の引数を取る必要があります。次のようになります。 x1 x2 x3 \ / / y1 / \ / y2 そのため、2つのレイヤーを持つモデルを作成してそれらをマージしようとしましたが、エラーが返されます:The first layer in a Sequential model must get an "input_shape" or "batch_input_shape" argument.行にresult.add(merged)。 モデル: first = Sequential() first.add(Dense(1, input_shape=(2,), activation='sigmoid')) second = Sequential() second.add(Dense(1, input_shape=(1,), activation='sigmoid')) result = Sequential() merged = Concatenate([first, second]) ada_grad = Adagrad(lr=0.1, epsilon=1e-08, …

2
Keras:カーネルとアクティビティの正規化機能の違い
私は、weight_regularizerがKerasで利用できなくなり、代わりにアクティビティとカーネル正則化が存在することに気づきました。私が知りたいのですが: カーネルとアクティビティレギュラライザーの主な違いは何ですか? 私は使用することができactivity_regularizerの代わりにweight_regularizer?

1
KerasでのTimeDistributedレイヤーの役割は何ですか?
TimeDistributedラッパーがKerasで何をするのかを把握しようとしています。 TimeDistributedは「入力のすべての時間スライスにレイヤーを適用する」と思います。 しかし、私はいくつかの実験をして、私が理解できない結果を得ました。 つまり、LSTMレイヤーに関連して、TimeDistributedレイヤーとDenseレイヤーだけで同じ結果が得られます。 model = Sequential() model.add(LSTM(5, input_shape = (10, 20), return_sequences = True)) model.add(TimeDistributed(Dense(1))) print(model.output_shape) model = Sequential() model.add(LSTM(5, input_shape = (10, 20), return_sequences = True)) model.add((Dense(1))) print(model.output_shape) どちらのモデルでも、(なし、10、1)の出力形状が得られました。 RNNレイヤーの後のTimeDistributedレイヤーとDenseレイヤーの違いを誰かが説明できますか?

7
損失値に基づいてKerasにトレーニングを停止するように指示するにはどうすればよいですか?
現在、私は次のコードを使用しています。 callbacks = [ EarlyStopping(monitor='val_loss', patience=2, verbose=0), ModelCheckpoint(kfold_weights_path, monitor='val_loss', save_best_only=True, verbose=0), ] model.fit(X_train.astype('float32'), Y_train, batch_size=batch_size, nb_epoch=nb_epoch, shuffle=True, verbose=1, validation_data=(X_valid, Y_valid), callbacks=callbacks) 2エポックの間損失が改善されなかったときにトレーニングを停止するようにKerasに指示します。しかし、損失が一定の「THR」よりも小さくなった後、トレーニングを停止したいと思います。 if val_loss < THR: break ドキュメントで、独自のコールバックを作成する可能性があることを確認し ました:http: //keras.io/callbacks/しかし、トレーニングプロセスを停止する方法は見つかりませんでした。アドバイスが必要です。

4
警告:tensorflow:sample_weightモードは…から['…']に強制変換されました
.fit_generator()または.fit()を使用して画像分類子をトレーニングclass_weight=し、引数としてに辞書を渡します。 TF1.xでエラーが発生することはありませんが、2.1ではトレーニングを開始すると次の出力が表示されます。 WARNING:tensorflow:sample_weight modes were coerced from ... to ['...'] 何かをから...に強制するとはどういう意味['...']ですか? tensorflowのリポジトリに関するこの警告の出典はこちらです。コメントは次のとおりです。 sample_weight_modesをターゲット構造に強制変換しようとしました。これは、Modelが内部表現の出力をフラット化するという事実に暗黙的に依存しています。

2
なぜkerasモデルはコンパイル後に予測が遅くなるのですか?
理論的には、重みは固定サイズであるため、予測は一定でなければなりません。コンパイル後に速度を戻すにはどうすればよいですか(オプティマイザを削除する必要はありません)。 関連する実験を参照してください:https : //nbviewer.jupyter.org/github/off99555/TensorFlowExperiments/blob/master/test-prediction-speed-after-compile.ipynb?flush_cache=true

2
Kerasの予測時間の矛盾
私のケラスモデルの予測時間の見積もりを取得しようとしたところ、奇妙なことがわかりました。通常はかなり高速であることは別にして、モデルは予測を出すのにかなり長い時間が必要です。それだけでなく、それらの時間はモデルの実行時間が長くなるほど増加します。エラーを再現するための最小限の実用例を追加しました。 import time import numpy as np from sklearn.datasets import make_classification from tensorflow.keras.models import Sequential from tensorflow.keras.layers import Dense, Flatten # Make a dummy classification problem X, y = make_classification() # Make a dummy model model = Sequential() model.add(Dense(10, activation='relu',name='input',input_shape=(X.shape[1],))) model.add(Dense(2, activation='softmax',name='predictions')) model.compile(optimizer='adam', loss='sparse_categorical_crossentropy', metrics=['accuracy']) model.fit(X, y, verbose=0, batch_size=20, epochs=100) …

9
ニューラルネットワークが独自のトレーニングデータで誤った予測をする理由
この賞金は終了しました。この質問への回答は、+ 150の評判バウンティの対象となります。バウンティの猶予期間は23時間で終了します。 サージェイは評判の良い情報源からの回答を探しています。 LSTM(RNN)ニューラルネットワークを作成し、データストック予測のための教師あり学習を行いました。問題は、それが独自のトレーニングデータで間違っていると予測する理由です。(注:以下の再現可能な例) 次の5日間の株価を予測する簡単なモデルを作成しました。 model = Sequential() model.add(LSTM(32, activation='sigmoid', input_shape=(x_train.shape[1], x_train.shape[2]))) model.add(Dense(y_train.shape[1])) model.compile(optimizer='adam', loss='mse') es = EarlyStopping(monitor='val_loss', patience=3, restore_best_weights=True) model.fit(x_train, y_train, batch_size=64, epochs=25, validation_data=(x_test, y_test), callbacks=[es]) 正しい結果はy_test(5つの値)にあるので、トレーニングをモデル化し、90日前を振り返って、次のようにして最良(val_loss=0.0030)の結果から重みを復元しますpatience=3。 Train on 396 samples, validate on 1 samples Epoch 1/25 396/396 [==============================] - 1s 2ms/step - loss: 0.1322 - val_loss: 0.0299 Epoch …

2
ケラスモデルのMSEを最大化する
私は生成的な敵対的なネットワークを持っています。そこでは、弁別器がMSEで最小化され、生成器が最大化されるはずです。どちらも反対の目標を追求する相手だからです。 generator = Sequential() generator.add(Dense(units=50, activation='sigmoid', input_shape=(15,))) generator.add(Dense(units=1, activation='sigmoid')) generator.compile(loss='mse', optimizer='adam') generator.train_on_batch(x_data, y_data) 高いMSE値から利益を得るジェネレータモデルを取得するには、何を適応させる必要がありますか?

1
Kerasで予期しないキーワード引数「不揃い」
次のPythonコードでトレーニング済みのケラスモデルを実行しようとしています。 from keras.preprocessing.image import img_to_array from keras.models import load_model from imutils.video import VideoStream from threading import Thread import numpy as np import imutils import time import cv2 import os MODEL_PATH = "/home/pi/Documents/converted_keras/keras_model.h5" print("[info] loading model..") model = load_model(MODEL_PATH) print("[info] starting vid stream..") vs = VideoStream(usePiCamera=True).start() time.sleep(2.0) while True: frame = …

1
TypeError:lenはシンボリックテンソルに対して適切に定義されていません。(activation_3 / Identity:0)形状情報については、 `len(x)`ではなく `x.shape`を呼び出してください
私はopenAIジムの1つのゲームにDQLモデルを実装しようとしています。しかし、それは私に次のエラーを与えています。 TypeError:lenはシンボリックテンソルに対して適切に定義されていません。(activation_3 / Identity:0) 形状情報x.shapeではなく、呼び出してくださいlen(x)。 ジム環境の作成: ENV_NAME = 'CartPole-v0' env = gym.make(ENV_NAME) np.random.seed(123) env.seed(123) nb_actions = env.action_space.n 私のモデルは次のようになります: model = Sequential() model.add(Flatten(input_shape=(1,) + env.observation_space.shape)) model.add(Dense(16)) model.add(Activation('relu')) model.add(Dense(nb_actions)) model.add(Activation('linear')) print(model.summary()) 次のように、そのモデルをkeral-rlのDQNモデルに適合させます。 policy = EpsGreedyQPolicy() memory = SequentialMemory(limit=50000, window_length=1) dqn = DQNAgent(model=model, nb_actions=nb_actions, memory=memory, nb_steps_warmup=10, target_model_update=0.001, policy=policy) dqn.compile(Adam(lr=1e-3), metrics=['mse', 'mae']) dqn.fit(env, nb_steps=5000, …

1
10エポックごとにモデルを保存するtensorflow.keras v2
私はテンソルフローv2のサブモジュールとして定義されたケラスを使用しています。fit_generator()メソッドを使用してモデルをトレーニングしています。10エポックごとにモデルを保存したい。どうすればこれを達成できますか? Keras(tfのサブモジュールではない)では、を指定できますModelCheckpoint(model_savepath,period=10)。しかし、TF V2に、彼らはこれを変更したModelCheckpoint(model_savepath, save_freq)場所save_freqすることができ'epoch'、その場合、モデルはすべてのエポックを保存されます。save_freqが整数の場合、非常に多くのサンプルが処理された後でモデルが保存されます。しかし、私はそれが10エポックの後であることを望みます。どうすればこれを達成できますか?

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.