タグ付けされた質問 「tensor」

2
Keras入力の説明:input_shape、units、batch_size、dimなど
任意のKeras層(の場合はLayerクラス)、缶誰かが違いを理解する方法を説明しinput_shape、units、dim、などを? たとえば、ドキュメントにはunits、レイヤーの出力形状を指定すると書かれています。 下のニューラルネットの画像にhidden layer1は4ユニットあります。これunitsはLayerオブジェクトの属性に直接変換されますか?それともunitsケラスでは、隠しレイヤーのすべてのウェイトの形状にユニット数を掛けたものに等しいですか? 簡単に言うと、下の画像を使用して、モデルの属性、特にレイヤーをどのように理解/視覚化するのですか?

21
TensorFlowでTensorオブジェクトの値を出力する方法は?
TensorFlowでの行列乗算の紹介例を使用しています。 matrix1 = tf.constant([[3., 3.]]) matrix2 = tf.constant([[2.],[2.]]) product = tf.matmul(matrix1, matrix2) 製品を印刷すると、Tensorオブジェクトとして表示されます。 <tensorflow.python.framework.ops.Tensor object at 0x10470fcd0> しかし、どうすればその価値を知ることができますproductか? 以下は役に立ちません: print product Tensor("MatMul:0", shape=TensorShape([Dimension(1), Dimension(1)]), dtype=float32) 私はグラフがで実行されることを知っていますが、グラフをで実行せずにオブジェクトSessionsの出力を確認する方法はありませんか?Tensorsession

8
「ビュー」メソッドはPyTorchでどのように機能しますか?
view()次のコードスニペットのメソッドについて混乱しています。 class Net(nn.Module): def __init__(self): super(Net, self).__init__() self.conv1 = nn.Conv2d(3, 6, 5) self.pool = nn.MaxPool2d(2,2) self.conv2 = nn.Conv2d(6, 16, 5) self.fc1 = nn.Linear(16*5*5, 120) self.fc2 = nn.Linear(120, 84) self.fc3 = nn.Linear(84, 10) def forward(self, x): x = self.pool(F.relu(self.conv1(x))) x = self.pool(F.relu(self.conv2(x))) x = x.view(-1, 16*5*5) x = F.relu(self.fc1(x)) x = …
205 python  memory  pytorch  torch  tensor 

5
PyTorchでトレーニング済みモデルを保存する最良の方法は?
PyTorchでトレーニング済みモデルを保存する別の方法を探していました。これまでのところ、2つの代替案を見つけました。 torch.save()はモデルを保存し、torch.load()はモデルをロードします。 model.state_dict()はトレーニング済みモデルを保存し、model.load_state_dict()は保存されたモデルをロードします。 私はこの議論に出くわしました。アプローチ2はアプローチ1よりも推奨されます。 私の質問は、なぜ2番目のアプローチが好ましいのかということです。それはtorch.nnモジュールがこれら2つの機能を持っているからであり、それらを使用することをお勧めしますか?

5
なぜシーケンスをpytorchに「パック」するのですか?
rnnの可変長シーケンス入力にパッキングを使用する方法を複製しようとしましたが、最初にシーケンスを「パック」する必要がある理由を理解する必要があると思います。 なぜそれらを「パッド」する必要があるのか​​理解していますが、なぜ「パッキング」(スルーpack_padded_sequence)が必要なのですか? 高レベルの説明をいただければ幸いです。
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.