Linuxの機械学習/ニューラルネットワーク用の外部GPUはどれくらい優れていますか?[閉まっている]


1

デスクトップタワーはありますが、機械学習用に検討しているGPU(RTX 2080)の電源供給が制限されすぎており、さらにファンを激しく使用し始めるこのマシンの熱が心配です1つのCPUでも100%で実行されている場合。外部ソリューションでは、必要に応じてGPUを追加することもできます。

オプションとして外部GPUを接続することもできますが、これにはどのようなパフォーマンスヒットが伴うのかと思いますか?数年前のThunderbolt 2接続では、パフォーマンスが30%低下するという報告がありますが、私はT3接続(または最新の/最速のもの)を使用します。一方、GPUの処理能力/速度も数年前から大幅に向上しています。RTX 2080のメモリ帯域幅は40ギガビット/秒で、T3の40 GB /秒の転送速度の8分の1(と思う)です。この場合も、グラフィックカードとコンピューターの残りの部分との間に必要な帯域幅がわかりません。

関連する問題は、Linux(Ubuntu / Kubuntuを実行しています)が外部GPU / T3接続デバイスでどのように機能するかです。

何か考え/経験?


1
ファンの電源ラインを外部電源に蛇行させて、冷却システムに外部から電力を供給しますか?液体冷却?
K7AAY

「機械学習」にGPUが特に必要なのはなぜですか?
Xen2050

こんにちはXen2050:ニューラルネットワークには大量の計算が必要であり、GPUはCPUよりもはるかに高い計算能力を備えています。
ジェイソンK

内部GPUと外部GPUの間の%計算速度の低下は、事実に基づいた質問のように思えます。特定のニューラルネットの2つの間の計算時間を誰かが計算できます。私は「どれだけ」Linuxは外部のGPU / wの作品を推測することは意見の問題ですが、私は今、Linuxが....で動作する「か」に変更しました
JasonK
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.