タグ付けされた質問 「tensorflow」

TensorFlowは、ディープラーニング用に設計されたオープンソースライブラリおよびAPIであり、Googleによって記述および保守されています。このタグを言語固有のタグ([python]、[c ++]、[javascript]、[r]など)とともに使用して、APIを使用して機械学習の問題を解決する方法について質問します。TensorFlow APIで使用できるプログラミング言語はさまざまであるため、プログラミング言語を指定する必要があります。[オブジェクト検出]などのアプリケーション領域も指定します。


16
要件テンソルフローを満たすバージョンが見つかりませんでした
Python (3.6.4 64-bit)の最新バージョンとの最新バージョンをインストールしましたPyCharm (2017.3.3 64-bit)。次に、PyCharmにいくつかのモジュール(Numpy、Pandasなど)をインストールしましたが、Tensorflowをインストールしようとしてもインストールされず、エラーメッセージが表示されました。 TensorFlowの要件を満たすバージョンが見つかりませんでした(バージョン:から)TensorFlowに一致する分布が見つかりません。 次に、コマンドプロンプトからTensorFlowをインストールしようとすると、同じエラーメッセージが表示されました。しかし、私はtflearnを正常にインストールしました。 Python 2.7もインストールしましたが、同じエラーメッセージが再度表示されました。私はエラーをググって他の人に提案されたいくつかのことを試しましたが、何もうまくいきませんでした(これにはFlaskのインストールが含まれていました)。 Tensorflowをインストールするにはどうすればよいですか?ありがとう。

12
Google TensorFlow C ++ APIを構築して使用する方法
C ++でGoogleの新しいTensorflowライブラリを使い始めたいと思っています。Webサイトとドキュメントは、プロジェクトのC ++ APIを構築する方法の点で本当に不明確であり、どこから始めればよいかわかりません。 より経験のある人がtensorflowのC ++ APIを使用するためのガイドを見つけて共有することで手助けできますか?
168 c++  tensorflow 

10
tensorflowで現在利用可能なGPUを取得するにはどうすればよいですか?
分散TensorFlowを使用する計画があり、TensorFlowがトレーニングとテストにGPUを使用できることを確認しました。クラスタ環境では、各マシンに0個または1個以上のGPUが存在する可能性があり、TensorFlowグラフをできるだけ多くのマシンのGPUに実行したいと考えています。 tf.Session()TensorFlowを実行すると、次のようなログメッセージでGPUに関する情報が表示されることがわかりました。 I tensorflow/core/common_runtime/gpu/gpu_init.cc:126] DMA: 0 I tensorflow/core/common_runtime/gpu/gpu_init.cc:136] 0: Y I tensorflow/core/common_runtime/gpu/gpu_device.cc:838] Creating TensorFlow device (/gpu:0) -> (device: 0, name: GeForce GTX 1080, pci bus id: 0000:01:00.0) 私の質問は、TensorFlowから現在利用可能なGPUに関する情報を取得するにはどうすればよいですか?ログから読み込まれたGPU情報を取得できますが、より洗練されたプログラム的な方法で取得したいと考えています。また、CUDA_VISIBLE_DEVICES環境変数を使用してGPUを意図的に制限することもできるので、OSカーネルからGPU情報を取得する方法を知りたくありません。 要するに、マシンで2つのGPUが利用可能であれば、そのような関数tf.get_available_gpus()が返さ['/gpu:0', '/gpu:1']れるようにしたいのです。どうすれば実装できますか?
165 python  gpu  tensorflow 

8
tf.nn.embedding_lookup関数は何をしますか?
tf.nn.embedding_lookup(params, ids, partition_strategy='mod', name=None) この機能の義務がわかりません。それはルックアップテーブルのようなものですか?それぞれのIDに対応するパラメーター(ID単位)を返すことはどちらですか。 たとえば、skip-gramモデルでを使用するとtf.nn.embedding_lookup(embeddings, train_inputs)、それぞれに対してtrain_input対応する埋め込みが見つかりますか?

10
ケラス、各レイヤーの出力を取得するには?
CNNを使用してバイナリ分類モデルをトレーニングしましたが、これが私のコードです model = Sequential() model.add(Convolution2D(nb_filters, kernel_size[0], kernel_size[1], border_mode='valid', input_shape=input_shape)) model.add(Activation('relu')) model.add(Convolution2D(nb_filters, kernel_size[0], kernel_size[1])) model.add(Activation('relu')) model.add(MaxPooling2D(pool_size=pool_size)) # (16, 16, 32) model.add(Convolution2D(nb_filters*2, kernel_size[0], kernel_size[1])) model.add(Activation('relu')) model.add(Convolution2D(nb_filters*2, kernel_size[0], kernel_size[1])) model.add(Activation('relu')) model.add(MaxPooling2D(pool_size=pool_size)) # (8, 8, 64) = (2048) model.add(Flatten()) model.add(Dense(1024)) model.add(Activation('relu')) model.add(Dropout(0.5)) model.add(Dense(2)) # define a binary classification problem model.add(Activation('softmax')) model.compile(loss='categorical_crossentropy', optimizer='adadelta', metrics=['accuracy']) model.fit(x_train, …

9
人工ニューラルネットワークの入力を正規化する必要があるのはなぜですか?
ニューラルネットワークの理論に関して、これは主要な質問です。 ニューラルネットワークの入力を正規化する必要があるのはなぜですか? たとえば、入力値が非数値の場合、特定の変換を実行する必要があることもありますが、数値入力がある場合はどうでしょうか。なぜ数値は一定の間隔でなければならないのですか? データが正規化されていないとどうなりますか?


6
どのTensorFlowバージョンとCUDAバージョンの組み合わせに互換性がありますか?
一部の新しいTensorFlowバージョンは、古いCUDAおよびcuDNNバージョンと互換性がないことに気付きました。互換性のあるバージョンの概要、または公式にテストされた組み合わせのリストさえ存在しますか?TensorFlowのドキュメントでは見つかりません。

4
TensorFlow、なぜPythonが選ばれた言語なのですか?
最近、ディープラーニングやその他のML手法の研究を開始し、ネットの構築とトレーニングのプロセスを簡略化するフレームワークの検索を開始したところ、TensorFlowはフィールドでの経験がほとんどないことがわかりました。ディープラーニングを使用する場合に大きなMLシステムをさらに作成するための大きな要因、それでTensorFlowを作成するためになぜpythonがGoogleによって選ばれたのですか?コンパイルして解釈できない言語で作成した方がいいのではないでしょうか。 機械学習でC ++などの言語よりもPythonを使用する利点は何ですか?

2
TensorFlow 2がTensorFlow 1よりもはるかに遅いのはなぜですか?
Pytorchに切り替える理由として多くのユーザーから引用されていますが、私は熱心な実行のために最も重要な実用的な品質、速度を犠牲にする理由と説明をまだ見つけていません。 以下は、TF1とTF2を比較したコードベンチマークのパフォーマンスです。TF1は、47%から276%速く実行されています。 私の質問は、グラフまたはハードウェアレベルで、このような大幅な速度低下をもたらすのは何ですか? 詳細な答えを探しています-すでに幅広い概念に精通しています。関連Git 仕様:CUDA 10.0.130、cuDNN 7.4.2、Python 3.7.4、Windows 10、GTX 1070 ベンチマーク結果: 更新:以下のコードに従ってEager Executionを無効にしても効果はありません。ただし、動作に一貫性がありません。グラフモードで実行するとかなり役立つ場合もあれば、Eagerに比べて実行速度が遅い場合もあります。 TF開発者はどこにも現れないので、私はこの問題を自分で調査します。リンクされたGithubの問題の進捗状況を追跡できます。 更新2:説明に沿って、共有する大量の実験結果。今日行われるべきです。 ベンチマークコード: # use tensorflow.keras... to benchmark tf.keras; used GPU for all above benchmarks from keras.layers import Input, Dense, LSTM, Bidirectional, Conv1D from keras.layers import Flatten, Dropout from keras.models import Model from keras.optimizers import Adam import …

5
tensorflowでtf.nn.conv2dは何をしますか?
tf.nn.conv2d ここでテンソルフローのドキュメントを見ていました。しかし、私はそれが何をするのか、それが何を達成しようとしているのか理解できません。それはドキュメントで言う、 #1:フィルターを形状のある2次元行列に平坦化する [filter_height * filter_width * in_channels, output_channels]。 今それは何をしますか?その要素ごとの乗算ですか、それとも単なる行列乗算ですか?また、ドキュメントで言及されている他の2つのポイントも理解できませんでした。以下に書きました: #2:入力テンソルから画像パッチを抽出して、形状の仮想テンソルを形成します [batch, out_height, out_width, filter_height * filter_width * in_channels]。 #3:パッチごとに、フィルターマトリックスと画像パッチベクトルを右乗算します。 誰かが例を挙げ、コード(非常に役立つ)を多分提供し、そこで何が起こっているのか、なぜ操作がこのようになるのかを説明できれば非常に役立ちます。 小さな部分をコーディングして、操作の形を印刷してみました。それでも理解できません。 私はこのようなものを試しました: op = tf.shape(tf.nn.conv2d(tf.random_normal([1,10,10,10]), tf.random_normal([2,10,10,10]), strides=[1, 2, 2, 1], padding='SAME')) with tf.Session() as sess: result = sess.run(op) print(result) ビットと畳み込みニューラルネットワークの一部を理解しています。ここで勉強しました。しかし、テンソルフローの実装は私が期待したものではありません。それで問題を提起しました。 編集:それで、私ははるかに単純なコードを実装しました。しかし、私は何が起こっているのか理解できません。結果はこんな感じです。どのプロセスがこの出力を生成するかを誰かに教えてもらえれば、非常に役立ちます。 input = tf.Variable(tf.random_normal([1,2,2,1])) filter = tf.Variable(tf.random_normal([1,1,1,1])) op = …

10
Tensorflow 2.0-AttributeError:モジュール 'tensorflow'には属性 'Session'がありません
sess = tf.Session()Tensorflow 2.0環境でコマンドを実行すると、次のようなエラーメッセージが表示されます。 Traceback (most recent call last): File "<stdin>", line 1, in <module> AttributeError: module 'tensorflow' has no attribute 'Session' システムインフォメーション: OSプラットフォームとディストリビューション:Windows 10 Pythonバージョン:3.7.1 Tensorflowバージョン:2.0.0-alpha0(pipとともにインストール) 再現する手順: インストール: pip install --upgrade pip pip install tensorflow == 2.0.0-alpha0 pip install keras pip install numpy == 1.16.2 実行: コマンドを実行します:tensorflowをtfとしてインポートします コマンドを実行します:sess = …

8
CPUでTensorflowを実行する方法
Ubuntu 14.04にGPUバージョンのtensorflowをインストールしました。 tensorflowが使用可能なGPUにアクセスできるGPUサーバーを使用しています。 CPUでテンソルフローを実行したい。 通常、私はenv CUDA_VISIBLE_DEVICES=0GPU noで実行するために使用できます。0。 代わりにどのようにCPUを選択できますか? 私は自分のコードを書き換えることに興味がありません with tf.device("/cpu:0"):
128 python  tensorflow 

4
TensorFlowでのVariableとget_variableの違い
私の知る限りでVariableは、は変数を作成するためのデフォルトの操作であり、get_variable主にウェイトシェアリングに使用されます。 一方で、変数が必要get_variableなVariableときはいつでも、プリミティブ演算の代わりに使用することを提案する人がいます。一方、get_variableTensorFlowの公式ドキュメントとデモでの使用は見ただけです。 したがって、これら2つのメカニズムを正しく使用する方法について、いくつかの経験則を知りたいと思います。「標準」の原則はありますか?
125 python  tensorflow 

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.