Tensorflowでモデルをトレーニングした後:
- トレーニング済みモデルをどのように保存しますか?
- この保存されたモデルを後でどのように復元しますか?
Tensorflowでモデルをトレーニングした後:
回答:
網羅的で有用なチュートリアル-> https://www.tensorflow.org/guide/saved_model
モデルを保存するためのKeras詳細ガイド-> https://www.tensorflow.org/guide/keras/save_and_serialize
ドキュメントから:
# Create some variables.
v1 = tf.get_variable("v1", shape=[3], initializer = tf.zeros_initializer)
v2 = tf.get_variable("v2", shape=[5], initializer = tf.zeros_initializer)
inc_v1 = v1.assign(v1+1)
dec_v2 = v2.assign(v2-1)
# Add an op to initialize the variables.
init_op = tf.global_variables_initializer()
# Add ops to save and restore all the variables.
saver = tf.train.Saver()
# Later, launch the model, initialize the variables, do some work, and save the
# variables to disk.
with tf.Session() as sess:
sess.run(init_op)
# Do some work with the model.
inc_v1.op.run()
dec_v2.op.run()
# Save the variables to disk.
save_path = saver.save(sess, "/tmp/model.ckpt")
print("Model saved in path: %s" % save_path)
tf.reset_default_graph()
# Create some variables.
v1 = tf.get_variable("v1", shape=[3])
v2 = tf.get_variable("v2", shape=[5])
# Add ops to save and restore all the variables.
saver = tf.train.Saver()
# Later, launch the model, use the saver to restore variables from disk, and
# do some work with the model.
with tf.Session() as sess:
# Restore variables from disk.
saver.restore(sess, "/tmp/model.ckpt")
print("Model restored.")
# Check the values of the variables
print("v1 : %s" % v1.eval())
print("v2 : %s" % v2.eval())
これはまだベータ版なので、今はお勧めしません。それでもその道を進みたい場合は、ここに使用ガイドがありtf.saved_model
ます
simple_save
良い答えがたくさんあります。完全を期すために、2セントを追加します:simple_save。また、tf.data.Dataset
API を使用したスタンドアロンコードの例。
Python 3; Tensorflow 1.14
import tensorflow as tf
from tensorflow.saved_model import tag_constants
with tf.Graph().as_default():
with tf.Session() as sess:
...
# Saving
inputs = {
"batch_size_placeholder": batch_size_placeholder,
"features_placeholder": features_placeholder,
"labels_placeholder": labels_placeholder,
}
outputs = {"prediction": model_output}
tf.saved_model.simple_save(
sess, 'path/to/your/location/', inputs, outputs
)
復元:
graph = tf.Graph()
with restored_graph.as_default():
with tf.Session() as sess:
tf.saved_model.loader.load(
sess,
[tag_constants.SERVING],
'path/to/your/location/',
)
batch_size_placeholder = graph.get_tensor_by_name('batch_size_placeholder:0')
features_placeholder = graph.get_tensor_by_name('features_placeholder:0')
labels_placeholder = graph.get_tensor_by_name('labels_placeholder:0')
prediction = restored_graph.get_tensor_by_name('dense/BiasAdd:0')
sess.run(prediction, feed_dict={
batch_size_placeholder: some_value,
features_placeholder: some_other_value,
labels_placeholder: another_value
})
次のコードは、デモンストレーションのためにランダムデータを生成します。
Dataset
、次にを作成しますIterator
。イテレータの生成されたテンソルを取得しますinput_tensor
。これは、モデルへの入力として機能します。input_tensor
、GRUベースの双方向RNNとそれに続く密な分類子から構築されます。それはなぜか。softmax_cross_entropy_with_logits
で最適化されていAdam
ます。(それぞれ2バッチの)2エポックの後、「トレーニング済み」モデルをで保存しtf.saved_model.simple_save
ます。コードをそのまま実行すると、モデルはsimple/
現在の作業ディレクトリにあるフォルダーに保存されます。tf.saved_model.loader.load
ます。でプレースホルダーとロジットをgraph.get_tensor_by_name
、でIterator
初期化操作を取得しgraph.get_operation_by_name
ます。コード:
import os
import shutil
import numpy as np
import tensorflow as tf
from tensorflow.python.saved_model import tag_constants
def model(graph, input_tensor):
"""Create the model which consists of
a bidirectional rnn (GRU(10)) followed by a dense classifier
Args:
graph (tf.Graph): Tensors' graph
input_tensor (tf.Tensor): Tensor fed as input to the model
Returns:
tf.Tensor: the model's output layer Tensor
"""
cell = tf.nn.rnn_cell.GRUCell(10)
with graph.as_default():
((fw_outputs, bw_outputs), (fw_state, bw_state)) = tf.nn.bidirectional_dynamic_rnn(
cell_fw=cell,
cell_bw=cell,
inputs=input_tensor,
sequence_length=[10] * 32,
dtype=tf.float32,
swap_memory=True,
scope=None)
outputs = tf.concat((fw_outputs, bw_outputs), 2)
mean = tf.reduce_mean(outputs, axis=1)
dense = tf.layers.dense(mean, 5, activation=None)
return dense
def get_opt_op(graph, logits, labels_tensor):
"""Create optimization operation from model's logits and labels
Args:
graph (tf.Graph): Tensors' graph
logits (tf.Tensor): The model's output without activation
labels_tensor (tf.Tensor): Target labels
Returns:
tf.Operation: the operation performing a stem of Adam optimizer
"""
with graph.as_default():
with tf.variable_scope('loss'):
loss = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(
logits=logits, labels=labels_tensor, name='xent'),
name="mean-xent"
)
with tf.variable_scope('optimizer'):
opt_op = tf.train.AdamOptimizer(1e-2).minimize(loss)
return opt_op
if __name__ == '__main__':
# Set random seed for reproducibility
# and create synthetic data
np.random.seed(0)
features = np.random.randn(64, 10, 30)
labels = np.eye(5)[np.random.randint(0, 5, (64,))]
graph1 = tf.Graph()
with graph1.as_default():
# Random seed for reproducibility
tf.set_random_seed(0)
# Placeholders
batch_size_ph = tf.placeholder(tf.int64, name='batch_size_ph')
features_data_ph = tf.placeholder(tf.float32, [None, None, 30], 'features_data_ph')
labels_data_ph = tf.placeholder(tf.int32, [None, 5], 'labels_data_ph')
# Dataset
dataset = tf.data.Dataset.from_tensor_slices((features_data_ph, labels_data_ph))
dataset = dataset.batch(batch_size_ph)
iterator = tf.data.Iterator.from_structure(dataset.output_types, dataset.output_shapes)
dataset_init_op = iterator.make_initializer(dataset, name='dataset_init')
input_tensor, labels_tensor = iterator.get_next()
# Model
logits = model(graph1, input_tensor)
# Optimization
opt_op = get_opt_op(graph1, logits, labels_tensor)
with tf.Session(graph=graph1) as sess:
# Initialize variables
tf.global_variables_initializer().run(session=sess)
for epoch in range(3):
batch = 0
# Initialize dataset (could feed epochs in Dataset.repeat(epochs))
sess.run(
dataset_init_op,
feed_dict={
features_data_ph: features,
labels_data_ph: labels,
batch_size_ph: 32
})
values = []
while True:
try:
if epoch < 2:
# Training
_, value = sess.run([opt_op, logits])
print('Epoch {}, batch {} | Sample value: {}'.format(epoch, batch, value[0]))
batch += 1
else:
# Final inference
values.append(sess.run(logits))
print('Epoch {}, batch {} | Final inference | Sample value: {}'.format(epoch, batch, values[-1][0]))
batch += 1
except tf.errors.OutOfRangeError:
break
# Save model state
print('\nSaving...')
cwd = os.getcwd()
path = os.path.join(cwd, 'simple')
shutil.rmtree(path, ignore_errors=True)
inputs_dict = {
"batch_size_ph": batch_size_ph,
"features_data_ph": features_data_ph,
"labels_data_ph": labels_data_ph
}
outputs_dict = {
"logits": logits
}
tf.saved_model.simple_save(
sess, path, inputs_dict, outputs_dict
)
print('Ok')
# Restoring
graph2 = tf.Graph()
with graph2.as_default():
with tf.Session(graph=graph2) as sess:
# Restore saved values
print('\nRestoring...')
tf.saved_model.loader.load(
sess,
[tag_constants.SERVING],
path
)
print('Ok')
# Get restored placeholders
labels_data_ph = graph2.get_tensor_by_name('labels_data_ph:0')
features_data_ph = graph2.get_tensor_by_name('features_data_ph:0')
batch_size_ph = graph2.get_tensor_by_name('batch_size_ph:0')
# Get restored model output
restored_logits = graph2.get_tensor_by_name('dense/BiasAdd:0')
# Get dataset initializing operation
dataset_init_op = graph2.get_operation_by_name('dataset_init')
# Initialize restored dataset
sess.run(
dataset_init_op,
feed_dict={
features_data_ph: features,
labels_data_ph: labels,
batch_size_ph: 32
}
)
# Compute inference for both batches in dataset
restored_values = []
for i in range(2):
restored_values.append(sess.run(restored_logits))
print('Restored values: ', restored_values[i][0])
# Check if original inference and restored inference are equal
valid = all((v == rv).all() for v, rv in zip(values, restored_values))
print('\nInferences match: ', valid)
これは印刷されます:
$ python3 save_and_restore.py
Epoch 0, batch 0 | Sample value: [-0.13851789 -0.3087595 0.12804556 0.20013677 -0.08229901]
Epoch 0, batch 1 | Sample value: [-0.00555491 -0.04339041 -0.05111827 -0.2480045 -0.00107776]
Epoch 1, batch 0 | Sample value: [-0.19321944 -0.2104792 -0.00602257 0.07465433 0.11674127]
Epoch 1, batch 1 | Sample value: [-0.05275984 0.05981954 -0.15913513 -0.3244143 0.10673307]
Epoch 2, batch 0 | Final inference | Sample value: [-0.26331693 -0.13013336 -0.12553 -0.04276478 0.2933622 ]
Epoch 2, batch 1 | Final inference | Sample value: [-0.07730117 0.11119192 -0.20817074 -0.35660955 0.16990358]
Saving...
INFO:tensorflow:Assets added to graph.
INFO:tensorflow:No assets to write.
INFO:tensorflow:SavedModel written to: b'/some/path/simple/saved_model.pb'
Ok
Restoring...
INFO:tensorflow:Restoring parameters from b'/some/path/simple/variables/variables'
Ok
Restored values: [-0.26331693 -0.13013336 -0.12553 -0.04276478 0.2933622 ]
Restored values: [-0.07730117 0.11119192 -0.20817074 -0.35660955 0.16990358]
Inferences match: True
tf.contrib.layers
?
global_step
引数なしで、あなたが停止してからもう一度トレーニングを始めようとすると、あなたはワンステップワンだと思います。それは少なくともあなたのテンソルボードの視覚化を台無しにするでしょう
モデルの保存と復元の詳細を追加するために、回答を改善しています。
Tensorflowバージョン0.11以降(以降):
モデルを保存します。
import tensorflow as tf
#Prepare to feed input, i.e. feed_dict and placeholders
w1 = tf.placeholder("float", name="w1")
w2 = tf.placeholder("float", name="w2")
b1= tf.Variable(2.0,name="bias")
feed_dict ={w1:4,w2:8}
#Define a test operation that we will restore
w3 = tf.add(w1,w2)
w4 = tf.multiply(w3,b1,name="op_to_restore")
sess = tf.Session()
sess.run(tf.global_variables_initializer())
#Create a saver object which will save all the variables
saver = tf.train.Saver()
#Run the operation by feeding input
print sess.run(w4,feed_dict)
#Prints 24 which is sum of (w1+w2)*b1
#Now, save the graph
saver.save(sess, 'my_test_model',global_step=1000)
モデルを復元します。
import tensorflow as tf
sess=tf.Session()
#First let's load meta graph and restore weights
saver = tf.train.import_meta_graph('my_test_model-1000.meta')
saver.restore(sess,tf.train.latest_checkpoint('./'))
# Access saved Variables directly
print(sess.run('bias:0'))
# This will print 2, which is the value of bias that we saved
# Now, let's access and create placeholders variables and
# create feed-dict to feed new data
graph = tf.get_default_graph()
w1 = graph.get_tensor_by_name("w1:0")
w2 = graph.get_tensor_by_name("w2:0")
feed_dict ={w1:13.0,w2:17.0}
#Now, access the op that you want to run.
op_to_restore = graph.get_tensor_by_name("op_to_restore:0")
print sess.run(op_to_restore,feed_dict)
#This will print 60 which is calculated
これといくつかのより高度なユースケースは、ここで非常によく説明されています。
:0
名前に追加するのですか?
TensorFlowバージョン0.11.0RC1で(以降)、あなたは保存することができますし、呼び出すことによって、直接あなたのモデルを復元tf.train.export_meta_graph
し、tf.train.import_meta_graph
に従ってhttps://www.tensorflow.org/programmers_guide/meta_graph。
w1 = tf.Variable(tf.truncated_normal(shape=[10]), name='w1')
w2 = tf.Variable(tf.truncated_normal(shape=[20]), name='w2')
tf.add_to_collection('vars', w1)
tf.add_to_collection('vars', w2)
saver = tf.train.Saver()
sess = tf.Session()
sess.run(tf.global_variables_initializer())
saver.save(sess, 'my-model')
# `save` method will call `export_meta_graph` implicitly.
# you will get saved graph files:my-model.meta
sess = tf.Session()
new_saver = tf.train.import_meta_graph('my-model.meta')
new_saver.restore(sess, tf.train.latest_checkpoint('./'))
all_vars = tf.get_collection('vars')
for v in all_vars:
v_ = sess.run(v)
print(v_)
<built-in function TF_Run> returned a result with an error set
tf.get_variable_scope().reuse_variables()
その後にを使用して変数を直接取得することはできません var = tf.get_variable("varname")
。これにより、「ValueError:変数varnameが存在しないか、tf.get_variable()で作成されなかった」というエラーが発生します。どうして?これは不可能でしょうか?
TensorFlowバージョン<0.11.0RC1の場合:
保存されるチェックポイントにはVariable
、モデル/グラフ自体ではなく、モデル内のの値が含まれます。つまり、チェックポイントを復元したときにグラフが同じになるはずです。
変数のチェックポイントを保存するトレーニングループと、以前の実行で保存された変数を復元して予測を計算する評価セクションがある線形回帰の例を次に示します。もちろん、必要に応じて変数を復元してトレーニングを続けることもできます。
x = tf.placeholder(tf.float32)
y = tf.placeholder(tf.float32)
w = tf.Variable(tf.zeros([1, 1], dtype=tf.float32))
b = tf.Variable(tf.ones([1, 1], dtype=tf.float32))
y_hat = tf.add(b, tf.matmul(x, w))
...more setup for optimization and what not...
saver = tf.train.Saver() # defaults to saving all variables - in this case w and b
with tf.Session() as sess:
sess.run(tf.initialize_all_variables())
if FLAGS.train:
for i in xrange(FLAGS.training_steps):
...training loop...
if (i + 1) % FLAGS.checkpoint_steps == 0:
saver.save(sess, FLAGS.checkpoint_dir + 'model.ckpt',
global_step=i+1)
else:
# Here's where you're restoring the variables w and b.
# Note that the graph is exactly as it was when the variables were
# saved in a prior training run.
ckpt = tf.train.get_checkpoint_state(FLAGS.checkpoint_dir)
if ckpt and ckpt.model_checkpoint_path:
saver.restore(sess, ckpt.model_checkpoint_path)
else:
...no checkpoint found...
# Now you can run the model to get predictions
batch_x = ...load some data...
predictions = sess.run(y_hat, feed_dict={x: batch_x})
batch_x
必要がありますか?バイナリ?Numpy配列?
undefined
。このコードのFLAGSのdefを教えてください。@RyanSepassi
私の環境:Python 3.6、Tensorflow 1.3.0
多くの解決策がありましたが、それらのほとんどはに基づいていtf.train.Saver
ます。.ckpt
によって保存されたものを読み込むときはSaver
、テンソルフローネットワークを再定義するか、奇妙で覚えにくい名前(たとえば'placehold_0:0'
)を使用する必要があります'dense/Adam/Weight:0'
。ここではtf.saved_model
、以下に示す最も単純な例の1つを使用することをお勧めします。TensorFlowモデルの提供から詳細を学ぶことができます。
モデルを保存します。
import tensorflow as tf
# define the tensorflow network and do some trains
x = tf.placeholder("float", name="x")
w = tf.Variable(2.0, name="w")
b = tf.Variable(0.0, name="bias")
h = tf.multiply(x, w)
y = tf.add(h, b, name="y")
sess = tf.Session()
sess.run(tf.global_variables_initializer())
# save the model
export_path = './savedmodel'
builder = tf.saved_model.builder.SavedModelBuilder(export_path)
tensor_info_x = tf.saved_model.utils.build_tensor_info(x)
tensor_info_y = tf.saved_model.utils.build_tensor_info(y)
prediction_signature = (
tf.saved_model.signature_def_utils.build_signature_def(
inputs={'x_input': tensor_info_x},
outputs={'y_output': tensor_info_y},
method_name=tf.saved_model.signature_constants.PREDICT_METHOD_NAME))
builder.add_meta_graph_and_variables(
sess, [tf.saved_model.tag_constants.SERVING],
signature_def_map={
tf.saved_model.signature_constants.DEFAULT_SERVING_SIGNATURE_DEF_KEY:
prediction_signature
},
)
builder.save()
モデルをロードします。
import tensorflow as tf
sess=tf.Session()
signature_key = tf.saved_model.signature_constants.DEFAULT_SERVING_SIGNATURE_DEF_KEY
input_key = 'x_input'
output_key = 'y_output'
export_path = './savedmodel'
meta_graph_def = tf.saved_model.loader.load(
sess,
[tf.saved_model.tag_constants.SERVING],
export_path)
signature = meta_graph_def.signature_def
x_tensor_name = signature[signature_key].inputs[input_key].name
y_tensor_name = signature[signature_key].outputs[output_key].name
x = sess.graph.get_tensor_by_name(x_tensor_name)
y = sess.graph.get_tensor_by_name(y_tensor_name)
y_out = sess.run(y, {x: 3.0})
モデルには2つの部分があります。モデル定義は、モデルディレクトリにによって保存さSupervisor
れgraph.pbtxt
、テンソルの数値はのようなチェックポイントファイルに保存されますmodel.ckpt-1003418
。
モデル定義はを使用して復元できtf.import_graph_def
、重みはを使用して復元されSaver
ます。
ただし、Saver
モデルグラフにアタッチされた変数のリストを保持する特別なコレクションを使用します。このコレクションはimport_graph_defを使用して初期化されないため、現時点では2つを一緒に使用することはできません(修正のためのロードマップ上にあります)。今のところ、Ryan Sepassiのアプローチを使用する必要があります-同じノード名でグラフを手動で作成し、それにSaver
ウェイトをロードするために使用します。
(またはimport_graph_def
、を使用tf.add_to_collection(tf.GraphKeys.VARIABLES, variable)
して変数を手動で作成し、各変数に使用してからを使用してハッキングすることもできますSaver
)
これをもっと簡単に行うこともできます。
W1 = tf.Variable(tf.truncated_normal([6, 6, 1, K], stddev=0.1), name="W1")
B1 = tf.Variable(tf.constant(0.1, tf.float32, [K]), name="B1")
Similarly, W2, B2, W3, .....
Saver
保存して保存するmodel_saver = tf.train.Saver()
# Train the model and save it in the end
model_saver.save(session, "saved_models/CNN_New.ckpt")
with tf.Session(graph=graph_cnn) as session:
model_saver.restore(session, "saved_models/CNN_New.ckpt")
print("Model restored.")
print('Initialized')
W1 = session.run(W1)
print(W1)
別のpythonインスタンスで実行している間は、
with tf.Session() as sess:
# Restore latest checkpoint
saver.restore(sess, tf.train.latest_checkpoint('saved_model/.'))
# Initalize the variables
sess.run(tf.global_variables_initializer())
# Get default graph (supply your custom graph if you have one)
graph = tf.get_default_graph()
# It will give tensor object
W1 = graph.get_tensor_by_name('W1:0')
# To get the value (numpy array)
W1_value = session.run(W1)
ほとんどの場合、aを使用したディスクからの保存と復元tf.train.Saver
が最良のオプションです。
... # build your model
saver = tf.train.Saver()
with tf.Session() as sess:
... # train the model
saver.save(sess, "/tmp/my_great_model")
with tf.Session() as sess:
saver.restore(sess, "/tmp/my_great_model")
... # use the model
グラフ構造自体を保存/復元することもできます(詳細については、MetaGraphのドキュメントを参照してください)。デフォルトでは、Saver
はグラフ構造を.meta
ファイルに保存します。あなたはimport_meta_graph()
それを復元するために呼び出すことができます。グラフ構造Saver
を復元し、モデルの状態を復元するために使用できるを返します。
saver = tf.train.import_meta_graph("/tmp/my_great_model.meta")
with tf.Session() as sess:
saver.restore(sess, "/tmp/my_great_model")
... # use the model
ただし、もっと高速なものが必要な場合もあります。たとえば、早期停止を実装する場合は、トレーニング中にモデルが改善するたびにチェックポイントを保存する必要があります(検証セットで測定)。その後、しばらく進行がない場合は、最適なモデルにロールバックする必要があります。改善するたびにモデルをディスクに保存すると、トレーニングが大幅に遅くなります。トリックは、変数の状態をメモリに保存し、後でそれらを復元することです。
... # build your model
# get a handle on the graph nodes we need to save/restore the model
graph = tf.get_default_graph()
gvars = graph.get_collection(tf.GraphKeys.GLOBAL_VARIABLES)
assign_ops = [graph.get_operation_by_name(v.op.name + "/Assign") for v in gvars]
init_values = [assign_op.inputs[1] for assign_op in assign_ops]
with tf.Session() as sess:
... # train the model
# when needed, save the model state to memory
gvars_state = sess.run(gvars)
# when needed, restore the model state
feed_dict = {init_value: val
for init_value, val in zip(init_values, gvars_state)}
sess.run(assign_ops, feed_dict=feed_dict)
簡単な説明:変数を作成するとX
、TensorFlowは自動的に代入演算X/Assign
を作成して、変数の初期値を設定します。プレースホルダーと追加の代入演算(グラフが煩雑になるだけ)を作成する代わりに、これらの既存の代入演算を使用します。各代入assign_op.inputs[1]
演算の最初の入力は、初期化することになっている変数への参照であり、2番目の入力()は初期値です。したがって、(初期値ではなく)必要な値を設定するには、aを使用しfeed_dict
て初期値を置き換える必要があります。はい、TensorFlowを使用すると、プレースホルダだけでなく、あらゆる演算の値をフィードできるため、これは正常に機能します。
Yaroslavが言ったように、グラフをインポートし、手動で変数を作成してからSaverを使用することにより、graph_defとチェックポイントからの復元をハックできます。
私はこれを個人的な使用のために実装したので、ここでコードを共有します。
リンク:https : //gist.github.com/nikitakit/6ef3b72be67b86cb7868
(これはもちろんハックであり、この方法で保存されたモデルがTensorFlowの将来のバージョンでも読み取り可能なままである保証はありません。)
内部的に保存されたモデルの場合は、すべての変数の復元を
restorer = tf.train.Saver(tf.all_variables())
それを使用して、現在のセッションで変数を復元します。
restorer.restore(self._sess, model_file)
外部モデルの場合、変数名から変数名へのマッピングを指定する必要があります。コマンドを使用してモデル変数名を表示できます
python /path/to/tensorflow/tensorflow/python/tools/inspect_checkpoint.py --file_name=/path/to/pretrained_model/model.ckpt
inspect_checkpoint.pyスクリプトは、Tensorflowソースの './tensorflow/python/tools'フォルダーにあります。
マッピングを指定するには、さまざまなモデルをトレーニングおよび再トレーニングするための一連のクラスとスクリプトが含まれているmy Tensorflow-Worklabを使用できます。ここにあるResNetモデルの再トレーニングの例が含まれています
all_variables()
は現在廃止されています
これは、実行時にファイルからグラフをロードするか、グラフを作成するかが異なる2つの基本的なケースに対する私の簡単な解決策です。
この答えはTensorflow 0.12+(1.0を含む)にも当てはまります。
graph = ... # build the graph
saver = tf.train.Saver() # create the saver after the graph
with ... as sess: # your session object
saver.save(sess, 'my-model')
graph = ... # build the graph
saver = tf.train.Saver() # create the saver after the graph
with ... as sess: # your session object
saver.restore(sess, tf.train.latest_checkpoint('./'))
# now you can use the graph, continue training or whatever
この手法を使用するときは、すべてのレイヤー/変数で一意の名前が明示的に設定されていることを確認してください。それ以外の場合、Tensorflowは名前自体を一意にするため、ファイルに保存されている名前とは異なります。名前はロードと保存の両方で同じ方法で「マングル」されるため、前の手法では問題にはなりません。
graph = ... # build the graph
for op in [ ... ]: # operators you want to use after restoring the model
tf.add_to_collection('ops_to_restore', op)
saver = tf.train.Saver() # create the saver after the graph
with ... as sess: # your session object
saver.save(sess, 'my-model')
with ... as sess: # your session object
saver = tf.train.import_meta_graph('my-model.meta')
saver.restore(sess, tf.train.latest_checkpoint('./'))
ops = tf.get_collection('ops_to_restore') # here are your operators in the same order in which you saved them to the collection
global_step
変数とバッチ正規化の移動平均はトレーニング不可能な変数ですが、どちらも確実に保存する価値があります。また、グラフのSaver(...).save()
作成とセッションの実行をより明確に区別する必要があります。たとえば、グラフを実行するたびに新しいノードが作成されます。おそらくあなたが望むものではありません。そしてもっとあります...:/
また、チェックアウトすることができます例でTensorFlow / skflow、申し出save
とrestore
簡単にあなたのモデルを管理することができた方法を。これには、モデルをバックアップする頻度を制御できるパラメータもあります。
tf.train.MonitoredTrainingSessionをデフォルトセッションとして使用する場合、保存/復元を行うために追加のコードを追加する必要はありません。チェックポイントディレクトリ名をMonitoredTrainingSessionのコンストラクターに渡すだけで、セッションフックを使用してこれらを処理します。
ここでの答えはすべて素晴らしいですが、2つ付け加えたいと思います。
まず、@ user7505159の回答を詳しく説明するために、復元するファイル名の先頭に「./」を追加することが重要になる場合があります。
たとえば、次のように、ファイル名に「./」を含まないグラフを保存できます。
# Some graph defined up here with specific names
saver = tf.train.Saver()
save_file = 'model.ckpt'
with tf.Session() as sess:
sess.run(tf.global_variables_initializer())
saver.save(sess, save_file)
ただし、グラフを復元するには、file_nameの前に「./」を付加する必要がある場合があります。
# Same graph defined up here
saver = tf.train.Saver()
save_file = './' + 'model.ckpt' # String addition used for emphasis
with tf.Session() as sess:
sess.run(tf.global_variables_initializer())
saver.restore(sess, save_file)
「./」は必ずしも必要ではありませんが、環境やTensorFlowのバージョンによっては問題が発生する可能性があります。
またsess.run(tf.global_variables_initializer())
、セッションを復元する前に、これが重要になる可能性があることについても触れておきます。
保存されたセッションを復元しようとしたときに、初期化されていない変数に関するエラーを受け取った場合はsess.run(tf.global_variables_initializer())
、saver.restore(sess, save_file)
行の前に含めるようにしてください。それはあなたの頭痛を救うことができます。
新しいTensorflowバージョンによると、tf.train.Checkpoint
はモデルの保存と復元に適した方法です。
Checkpoint.save
そしてCheckpoint.restore
、書き込みや読み取り書き込み、variable.nameベースのチェックポイントを読み込みtf.train.Saverとは対照的に、チェックポイントをオブジェクトベース。オブジェクトベースのチェックポイントは、名前付きエッジを持つPythonオブジェクト(レイヤー、オプティマイザー、変数など)間の依存関係のグラフを保存します。このグラフは、チェックポイントを復元するときに変数を照合するために使用されます。Pythonプログラムの変更に対してより堅牢になり、熱心に実行するときの変数のcreate-on-createをサポートするのに役立ちます。新しいコードを優先tf.train.Checkpoint
しtf.train.Saver
ます。
次に例を示します。
import tensorflow as tf
import os
tf.enable_eager_execution()
checkpoint_directory = "/tmp/training_checkpoints"
checkpoint_prefix = os.path.join(checkpoint_directory, "ckpt")
checkpoint = tf.train.Checkpoint(optimizer=optimizer, model=model)
status = checkpoint.restore(tf.train.latest_checkpoint(checkpoint_directory))
for _ in range(num_training_steps):
optimizer.minimize( ... ) # Variables will be restored on creation.
status.assert_consumed() # Optional sanity checks.
checkpoint.save(file_prefix=checkpoint_prefix)
tensorflow 2.0、それがあるような単純な
# Save the model model.save('path_to_my_model.h5')
復元するには:
new_model = tensorflow.keras.models.load_model('path_to_my_model.h5')
TF2.0
TF1.xを使用してモデルを保存するための素晴らしい答えを見つけました。tensorflow.keras
モデルを保存するには多くの方法があるので、少し複雑なモデルの保存にいくつかのポインタを提供したいと思います。
ここでは、現在のディレクトリの下のフォルダにtensorflow.keras
モデルを保存する例を示しmodel_path
ます。これは最新のテンソルフロー(TF2.0)でうまく機能します。近い将来変更がある場合は、この説明を更新します。
import tensorflow as tf
from tensorflow import keras
mnist = tf.keras.datasets.mnist
#import data
(x_train, y_train),(x_test, y_test) = mnist.load_data()
x_train, x_test = x_train / 255.0, x_test / 255.0
# create a model
def create_model():
model = tf.keras.models.Sequential([
tf.keras.layers.Flatten(input_shape=(28, 28)),
tf.keras.layers.Dense(512, activation=tf.nn.relu),
tf.keras.layers.Dropout(0.2),
tf.keras.layers.Dense(10, activation=tf.nn.softmax)
])
# compile the model
model.compile(optimizer='adam',
loss='sparse_categorical_crossentropy',
metrics=['accuracy'])
return model
# Create a basic model instance
model=create_model()
model.fit(x_train, y_train, epochs=1)
loss, acc = model.evaluate(x_test, y_test,verbose=1)
print("Original model, accuracy: {:5.2f}%".format(100*acc))
# Save entire model to a HDF5 file
model.save('./model_path/my_model.h5')
# Recreate the exact same model, including weights and optimizer.
new_model = keras.models.load_model('./model_path/my_model.h5')
loss, acc = new_model.evaluate(x_test, y_test)
print("Restored model, accuracy: {:5.2f}%".format(100*acc))
モデルの重みのみを保存して、モデルを復元するために重みをロードすることに関心がある場合は、
model.fit(x_train, y_train, epochs=5)
loss, acc = model.evaluate(x_test, y_test,verbose=1)
print("Original model, accuracy: {:5.2f}%".format(100*acc))
# Save the weights
model.save_weights('./checkpoints/my_checkpoint')
# Restore the weights
model = create_model()
model.load_weights('./checkpoints/my_checkpoint')
loss,acc = model.evaluate(x_test, y_test)
print("Restored model, accuracy: {:5.2f}%".format(100*acc))
# include the epoch in the file name. (uses `str.format`)
checkpoint_path = "training_2/cp-{epoch:04d}.ckpt"
checkpoint_dir = os.path.dirname(checkpoint_path)
cp_callback = tf.keras.callbacks.ModelCheckpoint(
checkpoint_path, verbose=1, save_weights_only=True,
# Save weights, every 5-epochs.
period=5)
model = create_model()
model.save_weights(checkpoint_path.format(epoch=0))
model.fit(train_images, train_labels,
epochs = 50, callbacks = [cp_callback],
validation_data = (test_images,test_labels),
verbose=0)
latest = tf.train.latest_checkpoint(checkpoint_dir)
new_model = create_model()
new_model.load_weights(latest)
loss, acc = new_model.evaluate(test_images, test_labels)
print("Restored model, accuracy: {:5.2f}%".format(100*acc))
import tensorflow as tf
from tensorflow import keras
mnist = tf.keras.datasets.mnist
(x_train, y_train),(x_test, y_test) = mnist.load_data()
x_train, x_test = x_train / 255.0, x_test / 255.0
# Custom Loss1 (for example)
@tf.function()
def customLoss1(yTrue,yPred):
return tf.reduce_mean(yTrue-yPred)
# Custom Loss2 (for example)
@tf.function()
def customLoss2(yTrue, yPred):
return tf.reduce_mean(tf.square(tf.subtract(yTrue,yPred)))
def create_model():
model = tf.keras.models.Sequential([
tf.keras.layers.Flatten(input_shape=(28, 28)),
tf.keras.layers.Dense(512, activation=tf.nn.relu),
tf.keras.layers.Dropout(0.2),
tf.keras.layers.Dense(10, activation=tf.nn.softmax)
])
model.compile(optimizer='adam',
loss='sparse_categorical_crossentropy',
metrics=['accuracy', customLoss1, customLoss2])
return model
# Create a basic model instance
model=create_model()
# Fit and evaluate model
model.fit(x_train, y_train, epochs=1)
loss, acc,loss1, loss2 = model.evaluate(x_test, y_test,verbose=1)
print("Original model, accuracy: {:5.2f}%".format(100*acc))
model.save("./model.h5")
new_model=tf.keras.models.load_model("./model.h5",custom_objects={'customLoss1':customLoss1,'customLoss2':customLoss2})
次のケース(tf.tile
)のようにカスタムopがある場合、関数を作成してLambdaレイヤーでラップする必要があります。そうしないと、モデルを保存できません。
import numpy as np
import tensorflow as tf
from tensorflow.keras.layers import Input, Lambda
from tensorflow.keras import Model
def my_fun(a):
out = tf.tile(a, (1, tf.shape(a)[0]))
return out
a = Input(shape=(10,))
#out = tf.tile(a, (1, tf.shape(a)[0]))
out = Lambda(lambda x : my_fun(x))(a)
model = Model(a, out)
x = np.zeros((50,10), dtype=np.float32)
print(model(x).numpy())
model.save('my_model.h5')
#load the model
new_model=tf.keras.models.load_model("my_model.h5")
tf.kerasモデルを保存する多くの方法のいくつかをカバーしたと思います。ただし、他にも多くの方法があります。ユースケースが上記でカバーされていない場合は、以下にコメントしてください。ありがとう!
あなたはできるネットワーク内の変数を保存使用して
saver = tf.train.Saver()
saver.save(sess, 'path of save/fileName.ckpt')
後でまたは別のスクリプトで再利用するためにネットワークを復元するには、次のコマンドを使用します。
saver = tf.train.Saver()
saver.restore(sess, tf.train.latest_checkpoint('path of save/')
sess.run(....)
重要なポイント:
sess
最初の実行と後の実行で同じでなければなりません(一貫した構造)。 saver.restore
個別のファイルパスではなく、保存されたファイルのフォルダのパスが必要です。 モデルを保存する場所はどこでも、
self.saver = tf.train.Saver()
with tf.Session() as sess:
sess.run(tf.global_variables_initializer())
...
self.saver.save(sess, filename)
tf.Variable
後でそれらの名前を使用して復元したい場合があるので、すべての名前に確認してください。そして、あなたが予測したい場所で、
saver = tf.train.import_meta_graph(filename)
name = 'name given when you saved the file'
with tf.Session() as sess:
saver.restore(sess, name)
print(sess.run('W1:0')) #example to retrieve by variable name
セーバーが対応するセッション内で実行されていることを確認してください。を使用する場合tf.train.latest_checkpoint('./')
、最新のチェックポイントのみが使用されることに注意してください。
@Vishnuvardhan Janapatiの回答に続き、TensorFlow 2.0.0でカスタムレイヤー/メトリック/損失を使用してモデルを保存および再ロードする別の方法を次に示します
import tensorflow as tf
from tensorflow.keras.layers import Layer
from tensorflow.keras.utils.generic_utils import get_custom_objects
# custom loss (for example)
def custom_loss(y_true,y_pred):
return tf.reduce_mean(y_true - y_pred)
get_custom_objects().update({'custom_loss': custom_loss})
# custom loss (for example)
class CustomLayer(Layer):
def __init__(self, ...):
...
# define custom layer and all necessary custom operations inside custom layer
get_custom_objects().update({'CustomLayer': CustomLayer})
このようにして、このようなコードを実行し、tf.keras.models.save_model
or model.save
またはModelCheckpoint
callback を使用してモデルを保存すると、次のように、正確なカスタムオブジェクトを必要とせずにモデルを再ロードできます。
new_model = tf.keras.models.load_model("./model.h5"})
新しいバージョンのtensorflow 2.0では、モデルの保存/読み込みのプロセスがはるかに簡単になりました。TensorFlowの高レベルAPIであるKeras APIの実装のため。
モデルを保存するには:ドキュメントを参照して確認してください:https : //www.tensorflow.org/versions/r2.0/api_docs/python/tf/keras/models/save_model
tf.keras.models.save_model(model_name, filepath, save_format)
モデルをロードするには:
https://www.tensorflow.org/versions/r2.0/api_docs/python/tf/keras/models/load_model
model = tf.keras.models.load_model(filepath)
ここで使用した簡単な例であるTensorflow 2.0 SavedModelの形式を(、推奨される形式であるドキュメントによる)に行くあまり派手なしKeras機能APIを使用して、簡単なMNISTデータセットの分類器のために:
# Imports
import tensorflow as tf
from tensorflow.keras.layers import Input, Dense, Flatten
from tensorflow.keras.models import Model
import matplotlib.pyplot as plt
# Load data
mnist = tf.keras.datasets.mnist # 28 x 28
(x_train,y_train), (x_test, y_test) = mnist.load_data()
# Normalize pixels [0,255] -> [0,1]
x_train = tf.keras.utils.normalize(x_train,axis=1)
x_test = tf.keras.utils.normalize(x_test,axis=1)
# Create model
input = Input(shape=(28,28), dtype='float64', name='graph_input')
x = Flatten()(input)
x = Dense(128, activation='relu')(x)
x = Dense(128, activation='relu')(x)
output = Dense(10, activation='softmax', name='graph_output', dtype='float64')(x)
model = Model(inputs=input, outputs=output)
model.compile(optimizer='adam',
loss='sparse_categorical_crossentropy',
metrics=['accuracy'])
# Train
model.fit(x_train, y_train, epochs=3)
# Save model in SavedModel format (Tensorflow 2.0)
export_path = 'model'
tf.saved_model.save(model, export_path)
# ... possibly another python program
# Reload model
loaded_model = tf.keras.models.load_model(export_path)
# Get image sample for testing
index = 0
img = x_test[index] # I normalized the image on a previous step
# Predict using the signature definition (Tensorflow 2.0)
predict = loaded_model.signatures["serving_default"]
prediction = predict(tf.constant(img))
# Show results
print(np.argmax(prediction['graph_output'])) # prints the class number
plt.imshow(x_test[index], cmap=plt.cm.binary) # prints the image
なにserving_default
?
これは、選択したタグの署名定義の名前です(この場合、デフォルトのserve
タグが選択されています)。また、ここでは、を使用してモデルのタグと署名を見つける方法について説明しますsaved_model_cli
。
免責事項
これは、起動して実行したい場合の基本的な例にすぎませんが、完全な答えではありません。将来的には更新できるかもしれません。私は単純な例を使ってSavedModel
はTF 2.0でです。これはどこにも見られないためです。
@ Tomの答えはSavedModelの例ですが、Tensorflow 2.0では機能しません。残念ながら、いくつかの重大な変更があるためです。
@ Vishnuvardhan Janapatiの答えはTF 2.0と言っていますが、それはSavedModelフォーマット用ではありません。