タグ付けされた質問 「tf.keras」

4
警告:tensorflow:sample_weightモードは…から['…']に強制変換されました
.fit_generator()または.fit()を使用して画像分類子をトレーニングclass_weight=し、引数としてに辞書を渡します。 TF1.xでエラーが発生することはありませんが、2.1ではトレーニングを開始すると次の出力が表示されます。 WARNING:tensorflow:sample_weight modes were coerced from ... to ['...'] 何かをから...に強制するとはどういう意味['...']ですか? tensorflowのリポジトリに関するこの警告の出典はこちらです。コメントは次のとおりです。 sample_weight_modesをターゲット構造に強制変換しようとしました。これは、Modelが内部表現の出力をフラット化するという事実に暗黙的に依存しています。

2
カスタムTensorFlow Kerasオプティマイザー
tf.kerasAPIに準拠するカスタムオプティマイザークラスを記述したいとします(TensorFlowバージョン> = 2.0を使用)。これを行うための文書化された方法と実装で何が行われるかについて混乱しています。 ドキュメントtf.keras.optimizers.Optimizer の状態、 ### Write a customized optimizer. If you intend to create your own optimization algorithm, simply inherit from this class and override the following methods: - resource_apply_dense (update variable given gradient tensor is dense) - resource_apply_sparse (update variable given gradient tensor is sparse) - create_slots (if …

7
「UserWarning:入力を取得できませんでした。労働者が亡くなった可能性があります。紛失したサンプルに関する情報はありません。」
モデルのトレーニング中に、「UserWarning:入力を取得できませんでした。ワーカーが死亡したことが原因である可能性があります。失われたサンプルに関する情報はありません。)」という警告が表示された後、モデルはトレーニングを開始します。この警告はどういう意味ですか?それは私のトレーニングに影響を与えるものであり、私は心配する必要がありますか?

1
10エポックごとにモデルを保存するtensorflow.keras v2
私はテンソルフローv2のサブモジュールとして定義されたケラスを使用しています。fit_generator()メソッドを使用してモデルをトレーニングしています。10エポックごとにモデルを保存したい。どうすればこれを達成できますか? Keras(tfのサブモジュールではない)では、を指定できますModelCheckpoint(model_savepath,period=10)。しかし、TF V2に、彼らはこれを変更したModelCheckpoint(model_savepath, save_freq)場所save_freqすることができ'epoch'、その場合、モデルはすべてのエポックを保存されます。save_freqが整数の場合、非常に多くのサンプルが処理された後でモデルが保存されます。しかし、私はそれが10エポックの後であることを望みます。どうすればこれを達成できますか?

6
TensorFlow 2.0をサポートしないKeras。「tf.keras」を使用するか、TensorFlow 1.14にダウングレードすることをお勧めします
(TensorFlow 2.0をサポートしていないKeras。TensorFlow1.14を使用tf.kerasするか、またはTensorFlow 1.14にダウングレードすることをお勧めします)に関するエラーがあります。 ありがとう import keras #For building the Neural Network layer by layer from keras.models import Sequential #To randomly initialize the weights to small numbers close to 0(But not 0) from keras.layers import Dense classifier=tf.keras.Sequential() classifier.add(Dense(output_dim = 6, init = 'uniform', activation = 'relu', input_dim = 11)) RuntimeError: It …

3
Keras / Tensorflowでトレーニング可能な一般化されたバンプ関数レイヤーを実装する
コンポーネントごとに適用されるバンプ関数の次のバリアントをコーディングしようとしています: 、 ここで、σはトレーニング可能です。しかし、機能していません(エラーは以下に報告されています)。 私の試み: これが私がこれまでにコーディングしたものです(役立つ場合)。(たとえば)2つの関数があるとします。 def f_True(x): # Compute Bump Function bump_value = 1-tf.math.pow(x,2) bump_value = -tf.math.pow(bump_value,-1) bump_value = tf.math.exp(bump_value) return(bump_value) def f_False(x): # Compute Bump Function x_out = 0*x return(x_out) class trainable_bump_layer(tf.keras.layers.Layer): def __init__(self, *args, **kwargs): super(trainable_bump_layer, self).__init__(*args, **kwargs) def build(self, input_shape): self.threshold_level = self.add_weight(name='threshlevel', shape=[1], initializer='GlorotUniform', trainable=True) def …

2
すべての関数に@ tf.functionを使用する必要がありますか?
の公式チュートリアルは@tf.function言う: 最高のパフォーマンスを得て、モデルをどこにでもデプロイできるようにするには、tf.functionを使用してプログラムからグラフを作成します。AutoGraphのおかげで、驚くほどの量のPythonコードがtf.functionで機能するだけですが、まだ注意すべき落とし穴があります。 主な要点と推奨事項は次のとおりです。 オブジェクトの変更やリストの追加などのPythonの副作用に依存しないでください。 tf.functionは、NumPy演算やPythonプリミティブではなく、TensorFlow演算で最適に機能します。 疑問がある場合は、for x in yイディオムを使用してください。 それだけ言及どのように実装する@tf.function注釈付きの機能はありませんしたときにそれを使用します。 少なくとも関数に注釈を付ける必要があるかどうかを判断する方法にヒューリスティックはありtf.functionますか?副作用を削除したり、range()->のようなものを変更するのが面倒だったりしない限り、そうしない理由はないようですtf.range()。しかし、私がこれをやる気があるなら... @tf.functionすべての機能を使用しない理由はありますか?

2
PyCharmにKeras(TensorFlow 2.0から)をインポートできません
PyCharmに安定版のTensorFlow 2.0(2019年10月1日にリリース)をインストールしました。 問題は、kerasパッケージが利用できないことです。 実際のエラーは: 「テンソルフローから名前「ケラス」をインポートできません」 を介してインストールしpip install tensorflow==2.0.0たCPU version後、CPUバージョンをアンインストールし、GPUバージョンをインストールしました。pip install tensorflow-gpu==2.0.0. 上記で機能したTensorFlowのバージョンはいずれも正しく機能していませんでした(を介してkerasまたは他のパッケージをインポートできませんでしたfrom tensorflow.package_X import Y)。 TensorFlowをバージョン2.0.0.b1に戻した場合、kerasはパッケージとして利用でき(PyCharmはそれを認識します)、すべてがスムーズに実行されます。 この問題を解決する方法はありますか?インストールプロセスを間違えていませんか? 更新--- Pythonコンソールからのインポートが機能し、エラーなしでインポートできます。
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.