GPUによってトレーニングされたディープラーニングニューラルネットワークを実行しています。これを複数のホストに展開して推論します。問題は、推論にGPUとCPUのどちらを使用するかを決定するための条件は何ですか?
以下のコメントから詳細を追加します。
私はこれが初めてなので、指導に感謝します。
メモリ:GPUはK80
フレームワーク:CudaおよびcuDNN
ワークロードあたりのデータサイズ:20G
消費するノードの計算:スケールオプションを検討したいが、ジョブごとに1つ
コスト:理由が理にかなっている場合は、GPUオプションを購入できます
展開:クラウドではなく、ホストされた独自のベアメタルサーバーで実行します。
現在、アプリケーションが正常に実行されているという理由だけでCPUで実行しています。しかし、その理由以外に、なぜGPUを検討するのかさえわかりません。