タグ付けされた質問 「gpu」

3
KerasのマルチGPU
複数のGPUでトレーニングを分割するために、kerasライブラリ(またはテンソルフロー)でどのようにプログラムできますか?8個のGPUを備えたAmazon ec2インスタンスにいて、それらすべてを使用してより高速にトレーニングしたいとしますが、コードは単一のCPUまたはGPU用です。

3
ニューラルネットワークをトレーニングするためのCPUとGPUの選択
GPUの「オーバーヘッド」についての議論を見てきました。「小さな」ネットワークの場合、GPUよりも実際にCPU(またはCPUのネットワーク)でトレーニングする方が速いかもしれません。 「小さい」とはどういう意味ですか? たとえば、100個の隠れユニットを持つ単一層MLPは「小さい」でしょうか? 「小規模」の定義は、リカレントアーキテクチャに対して変わりますか? CPUでトレーニングするかGPUでトレーニングするかを決定するときに考慮する必要がある他の基準はありますか? 編集1: 私はブログの記事を見つけました(?おそらく古いそれは2014年からです): "...ほとんどのネットワークカードはCPUに登録されているメモリでのみ機能するため、2つのノード間のGPUからGPUへの転送は次のようになります。GPU1からCPU 1、ネットワークカード1、ネットワークカード2、CPU 2からGPU 2.つまり、遅いネットワークカードを選択した場合、1台のコンピューターで高速化が行われない可能性があります。高速ネットワークカードでも、クラスターが大きい場合、GPUから比較しても高速化されませんGPUの動作が速すぎるため、ネットワークカードがCPUに対応できません。 これが、GoogleやMicrosoftのような多くの大企業がGPUクラスターではなくCPUを使用して大規模なニューラルネットワークをトレーニングしている理由です。」 そのため、この投稿によると、ある時点でCPUを使用した方が高速だった可能性があります。これはまだ事実ですか? 編集2:はい、そのブログ投稿は次の理由で非常に古くなっている可能性があります。 ノード内のGPUはPCIeバスを介して接続されているため、通信は約6GiB / sで発生する可能性があります。(例:https : //www.youtube.com/watch?v=el1iSlP1uOs、約35分)。スピーカーは、これがGPU1からCPU、GPU2に行くよりも速いことを暗示しています。ネットワークカードがボトルネックではなくなったことを意味します。

4
Intel GPUでTensorFlowを使用する
私はディープラーニングの初心者です。 TensorFlowをIntel GPUで使用する方法はありますか?はいの場合は、正しい方向に向けてください。 そうでない場合は、Intel Corporation Xeon E3-1200 v3 / 4th Gen Core Processor Integrated Graphics Controllerに使用できるフレームワーク(ある場合)(Keras、Theanoなど)をお知らせください。
20 tensorflow  keras  theano  gpu 

4
R:GPUでの機械学習
GPUを利用してトレーニング速度を改善できるR向けの機械学習パッケージはありますか(Pythonの世界のtheanoのようなもの)? gpuでコードを実行できるgputoolsと呼ばれるパッケージがありますが、機械学習のためのより完全なライブラリを探しています。

3
推論にはGPUまたはCPUを使用する必要がありますか?
GPUによってトレーニングされたディープラーニングニューラルネットワークを実行しています。これを複数のホストに展開して推論します。問題は、推論にGPUとCPUのどちらを使用するかを決定するための条件は何ですか? 以下のコメントから詳細を追加します。 私はこれが初めてなので、指導に感謝します。 メモリ:GPUはK80 フレームワーク:CudaおよびcuDNN ワークロードあたりのデータサイズ:20G 消費するノードの計算:スケールオプションを検討したいが、ジョブごとに1つ コスト:理由が理にかなっている場合は、GPUオプションを購入できます 展開:クラウドではなく、ホストされた独自のベアメタルサーバーで実行します。 現在、アプリケーションが正常に実行されているという理由だけでCPUで実行しています。しかし、その理由以外に、なぜGPUを検討するのかさえわかりません。

1
WindowsでのRのGPU高速データ処理
現在、ビッグデータに関する論文を執筆しており、データ分析にRを多用しています。ゲームの理由で、PCにGTX1070を使用しています。ですから、講師がやっていることのいくつかの処理をスピードアップすることができれば本当にクールだと思いましたが、これを行うのは簡単ではないようです。gpuR、CUDA、Rtools、およびその他のいくつかのビットとボブをインストールしました。たとえば、ゲノム発現データからgpuMatrixオブジェクトを作成できますが、両方ともgpuMatrixオブジェクトで機能する関数をまだ見つけていませんまた、パフォーマンスに目立った違いがあります。おそらくこれは、gpuRパッケージに固有の制限に関連しているだけです-他のいくつかのパッケージは、私が探しているようなもののように聞こえる関数を持っていることについて話しているようです これらのパッケージのほとんどすべてがLinux専用ですが、WindowsでRのGPUサポートを実装することは特に難しいですか?または、Windowsでこれを行うために使用できるパッケージが非常に少ないという他の理由がありますか?ある意味で私は興味があるだけですが、実際に機能させることも非常にクールです。Windowsで利用できるものがほとんどないことに驚き、通常はその逆です。
11 r  gpu  parallel 

3
CNNメモリ消費
提案されたモデルが、指定された量のメモリを備えたGPUでトレーニングされるのに十分小さいかどうかを推定できるようにしたい このような単純なCNNアーキテクチャがある場合: Input:50x50x3 C1:32個の3x3カーネル、パディング付き(実際には、入力深度を考えると、実際には3x3x3でしょうか?) P1:2x2、ストライド2 C2:64 x 3x3カーネル、パディングあり P2:2x2、ストライド2 FC:500ニューロン Output:softmax 10クラス 64のミニバッチサイズ 32ビットの浮動小数点値を想定して、トレーニング中にネットワークの各レイヤーのメモリコストをどのように計算しますか?そして、そのようなモデルをトレーニングするために必要な総メモリは?

1
トレーニングRNNがGPUを100%使用しないのはなぜですか?
RNNのトレーニングが通常、GPUの100%を使用しないのはなぜですか。 たとえば、Ubuntu 14.04.4 LTS x64上のMaxwell Titan XでこのRNNベンチマークを実行すると、GPU使用率は90%未満になります。 ベンチマークは次のコマンドを使用して起動されました: python rnn.py -n 'fastlstm' -l 1024 -s 30 -b 128 ボトルネックを診断するにはどうすればよいですか?

3
KerasバックエンドTensorflowをGPUに切り替える
CPUオプションがインストールされたKeras-Tensorflowコンボ(より堅牢であると言われていました)を使用していますが、GPUバージョンで試してみたいと思います。切り替える便利な方法はありますか?または、Tensorflowを完全に再インストールしますか?GPUバージョンは信頼できますか?
8 tensorflow  keras  gpu 

1
トレーニングフェーズの後、GPUまたはCPUでニューラルネットワークを実行する方が良いですか?
私の理解では、GPUの方がニューラルネットを実行する方が効率的ですが、最近誰かがGPUはトレーニングフェーズでのみ必要であると提案しました。いったんトレーニングされると、CPUで実行する方が実際にはより効率的です。 これは本当ですか?
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.