タグ付けされた質問 「nvidia-titan」

14
tensorflowがGPUメモリの全体を割り当てないようにするにはどうすればよいですか?
私は計算リソースが共有されている環境で働いています。つまり、それぞれにいくつかのNvidia Titan X GPUを搭載したサーバーマシンがいくつかあります。 小規模から中規模のモデルの場合、通常、2〜3人が同じGPUでトレーニングを実行するには、12 GBのTitan Xで十分です。1つのモデルがGPUのすべての計算ユニットを十分に活用できないほどモデルが小さい場合、実際には、1つのトレーニングプロセスを次々に実行する場合と比較して、速度が向上する可能性があります。GPUへの同時アクセスによって個々のトレーニング時間が遅くなる場合でも、複数のユーザーがGPUで同時にトレーニングできる柔軟性があると便利です。 TensorFlowの問題は、デフォルトでは、起動時に利用可能なGPUメモリの全量を割り当てることです。小さな2層ニューラルネットワークでも、12 GBのGPUメモリがすべて使い果たされています。 これが特定のモデルに十分であることを知っている場合、TensorFlowが4 GBのGPUメモリのみを割り当てるようにする方法はありますか?
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.